Русская модель GPT-3 Large (от сбербанка)
https://sbercloud.ru/ru/warp/gpt-3
RuGPT-3 — это:
- 760 миллионов параметров.
- Длина контекста — 2048.
- Три эпохи обучения по 80 млрд токенов.
- Перплексия на тестовой выборке — 14,77.
—
Я: логика это
ruGPT-3 (760M):
логика это хорошая наука..)
Кто на что учился? )
Лучше не надо...
—
- математика это
- математика это универсальный язык, освоивший в математике все до единой комбинации цифр. ...
—
- смысл это
- смысл это слово как начало слова... оно как-то перекликается с моим другом - "пессимист"... и.... философия - это философия жизни... ставя себе цели и задачи, да сам их достигая... и иногда даже невозможно без них обойтись... без размышлений, без анализа и знаний... без ошибки на первом этапе...
—
- сознание это
- сознание это
Все возможное и невозможное
Все невидимые. Любые наши эмоции. Наши мысли, желания и прочее.
Наша человеческая сущность.
—