Память для LLM-чата на Python. Часть 3: добавляем историю сообщений и контекст
cooling| Тип события | other |
|---|---|
| Тема | conversational ai |
| Организация | |
| Страна |
| Статей | 1 |
|---|---|
| Уник. источников | 1 |
| Важность / Момент | 0.69 / 0 |
| Период | 02.04.2026 19:05 — 02.04.2026 19:05 |
| Создан | 06.04.2026 08:05:34 |
Статьи в кластере 1
| Заголовок | Источник | Дата публикации | Score | |||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| S | Память для LLM-чата на Python. Часть 3: добавляем историю сообщений и контекст | habr_ai | 02.04.2026 19:05 | 1 | ||||||||||||||||
Во второй части мы сделали консольный чат с циклом и system prompt. Но у него был пробел: каждый запрос шёл к модели независимо, без контекста предыдущих реплик. В третьей части добавляем историю сообщений — и чат наконец начинает помнить разговор.
Читать далее
|
||||||||||||||||||||