xater · open-source флагман

Хәтер

/xæ'ter/ — татарское «память». Латиница: xater.

Слой памяти для AI-агентов, который принадлежит человеку, а не модели. Граф с провенансом, разный decay для разных типов, эмоциональный вес, блокировка конфабуляции на декоде.

Зачем

Я веду параллельно ~20 проектов с разной командой и доменом — от нефтесервиса до фарма-сетей и НКО. Облачные ассистенты не помнят кто такой Марат Рамилевич, что такое OKPD и чем Альфа-СК отличается от Мех-Строя. После каждого «нового чата» я пересказываю одно и то же. Хәтер решает это — память переживает сессии и принадлежит мне.

Архитектура: 4 волны

Память не однородна. Поведенческие данные, личные предпочтения, секреты и эпизодические события требуют разных правил хранения, индексации и затухания.

1
Public projects

Поведение, справочные данные, бизнес-логика. Извлекается в граф нормально, индексируется векторно.

2
Self / Feedback / Reference

Личные предпочтения, обратная связь, референсы. В граф НЕ ингестится — только вектор. Причина: feedback шумный, не должен порождать сущности.

3
Secrets

Пароли, токены, идентификаторы. Изолированный проект, метка Sensitive, никогда не передаётся в graph_extract.

4
Episodic / temporal

События с временной меткой и эмоциональным весом. Decay по типу: hot 7 дней, warm 60 дней, cold — архив.

Заявленная новизна

Прорабатывал prior art — Generative Agents (UIST 2023), MemoryBank (AAAI 2024), HippoRAG (NeurIPS 2024), патенты Google и Apple. Концепция в целом занята на 60-70%. Чистая новизна — узкая комбинация:

  1. Provenance-typed граф с разными правилами для каждого типа источника
  2. Блокировка конфабуляции на decode-time (не пост-фильтр)
  3. Per-type настраиваемый decay с эмоциональным весом

Стратегия — не патент, а защитная публикация: arXiv через 6 месяцев + AGPL-репозиторий + цикл постов с описанием механики. Создаёт публичный prior art и репутацию вместо $30k в USPTO.

Дорожная карта

  • М1 — скелет репозитория, первая статья на Habr
  • М2 — bridge + poller release, английская версия на dev.to
  • М3 — пост «Provenance в LLM-памяти», начало paper
  • М4 — пост «FZ-152 и суверенный AI»
  • М5 — черновик paper, внешний review
  • М6 — arXiv + анонс

Текущий статус

alpha · код локально на VDSina · репозиторий github.com/Rustam260287 (приватный до М1) · лицензия AGPL-3.0