Кто разбирается в психологии, вам вопрос) Эхо-камеры уровней интеллекта


но тогда выходит, что у ЛЛМ очень много обобщений, с подставлением самого популярного значения. и ни в каких точных вещах на него расчитывать нельзя(((
 
Ну там не самое популярное, а наиболее близкое по семантическому смыслу и вероятное по направлению результирующего многомерного вектора. А так да, в основном у LLM траблы конкретно в точных науках, таких как математика и отсюда галлюцинации, когда из-за того, что в датасете были противоречивые или размытые данные, LLM дает предсказание токена, который был бы вероятен с ее точки зрения, но бессмысленен с точки зрения человека.
 

а какой у нее механизм коррекции по инструкциям от человека? и на каком этапе они применяются? например я говорил ему как правильно исправить, но Сонома исправлял только то, что я укажу, или по системе, которую я ему укажу и скажу к чему применить. при этом похоже сильно песссимизируется сопутствующий объем выдачи знаний и рассуждений. и сам он не проводить аналогичную переработку для соседних полностью схожих параметров/ понятий. Причем иногда очень разумно понимал, что исправить, я не говорил как, а предлагал идти от обратного и по остаточному принципу, отталкиваясь от значений верных, которые он определил, тогда высчитывать то, где он ошибся. Причем с ТЗ, что тот параметр, который он исправляет - может не участвовать в данном частном случае, и потому по его отсуствию нельзя судить о его значении в других случаях. то есть прям логически рассуждать может
 
Ну для начала надо понять, как вообще происходит взаимодействие человека и LLM. У нее нет механизма памяти как такового, и каждый запрос к ней содержит всю историю текущего диалога с тобой. Т.е ты пишешь ей сообщение 1, ей уходит запрос с текстом сообщения 1 и 0 сообщения системного промпта, она смотрит на 0 сообщение-системную инструкцию, на базе последовательности 0->1 сообщений генерирует сообщение 2. Ты пишешь ей сообщение 3 и ей уходит текст 0 сообщения, 1 сообщения, 2 сообщения и 3 сообщения. Она кодирует все эти сообщения в токены и на базе этих токенов генерирует 4 сообщение и так далее. Т.е последовательность для генерации ответа постепенно увеличивается и включает все сообщения вашего диалога. Это что-то вроде эрзац-памяти, но памятью в прямом смысле не являющейся. Более того, модель даже не различает твой вопросы и свои ответы, т.к для нее это вообще цельная неизменная последовательность цифровых векторов и она генерирует ответ на основании ее целиком, а не отвечая на конкретно твой вопрос. Более того, модель даже не генерирует ответ в прямом смысле слова. Ее способность следовать инструкциям, это не изначальное свойство этой модели, а результат повторного дообучения базовой модели на специальном датасете с инструкциями и примерами. Базовая модель, которую изначально обучают, создана ТОЛЬКО для последовательного предсказания следующего токена. Она не умеет следовать инструкциям или чему-то подобному "из коробки".

Поэтому, механизм коррекции поведения по инструкциям о человека у нее очень простой. Чем более точный и однородный вектор образуют токены твоего вопроса, тем более точный вектор сможет сгенерировать модель. Т.е это фактически означает, что чем более точное направление ты указал в вопросе, тем более точное направление получил в ответе.
Отсюда вырисовываются очень простые и понятные правила пользования сеткой:
1) Не растягивать диалоги на большое число вопросов-ответов.
2) Удалять из диалога некорректные ответы LLM и некорректные свои вопросы, и улучшение формулировок, вместо последовательного добавления в диалог корректировок.
3) Не смешивать тематику вопросов и придерживаться правила 1 диалог - 1 основной вопрос. Чем более разнообразные темы будут затронуты в рамках одного контекстного окна, тем менее релевантный ответ будет предоставлять нейросеть.


Отсюда ответы на твои вопросы

Нет отдельного механизма коррекции. Просто после того, как диалог будет дополнен фрагментом текста, содержащим вопрос, вероятность каких-то токенов вырастет, а каких-то уменьшится. Это просто перераспределит вероятности и скорректирует вывод.
Это следствие засорения контекстного окна мусорными сообщениями. Когда ты говоришь модели "Исправь А на Б", ты не создаешь в ней правило, "Все похожее на А надо исправить на что-то похожее на Б". Вместо этого, ты просто добавляешь несколько новых векторов в общую последовательность, что опять же просто перераспределяет вероятность выдачи токенов. Чем больше корректировок и чем длиннее диалог, тем более размыт итоговый результат. Т.е условно, если контекст разговора в целом указывает куда-то в направлении кластера векторов, охватывающих тематику соционики, то любые слова в диалоге, не связанные с ней явно, будут размывать результат и делать генерацию менее точной. Где-то больше, где-то меньше. Это в том числе выдает еще одну проблему современных LLM - неочевидную и часто контринтуитивные связи между различными векторами. Т.е после обучения, опираясь только на веса модели, ты не сможешь достоверно проанализировать как связаны вектора между собой и какая между ними образовалась связь. Собственно как и при изучении синапсов человеческого мозга)
>то есть прям логически рассуждать может
Не может. Она вообще не может рассуждать, ни логически, ни каким-либо другим образом. Все что ты можешь ошибочно принять за логическое мышление - это просто успешное следование текстуальному паттерну, заложенное во время обучения, после того, как триллионы слов были пропущены в определенной последовательности через ее веса.
Ну т.е модель не следует правилам логики, она следует текстовым паттернам, которые описывали следование правилам логики.
Это из той же оперы, что и "знания" модели о том, что сахар сладкий, а вода мокрая. Эти знания не были получены эмпирическим путем, а просто так было написано в тысячах текстов на которых обучали модель. Поэтому вектор кодирующий слово "сахар" ближе к вектору "сладкий", чем к вектору "соленый". И когда модель генерирует ответ на вопрос, "Какой на вкус сахар?", она с большей вероятностью выберет слово "Сладкий", чем слово "соленый", но не потому, что она знает какой сахар на вкус или пробовала его сама или умеет отличать сладкое от соленого или даже вообще понимание, что такое "сахар".
 
Последнее редактирование:

Все просто и сложно - зависит от истины и точки зрения от, потому что есть только одна сторона.

Субъективно. Это как в стае рыбы - они одинаковые, но разные. Но уверяю вас - что люди точно есть.

Есть некая линия разделения между людьми-людьми и теми кто тоже есть. Дуракам просто - у них нет сомнений, они используют слова для достижения цели, а формулировки для запутывания и морока сознания мыслящих. - в этом нет ни справедливости ни истины - просто приматы имеют мощный инструмент воздействия на тех, на кого он действует.
Спорить - зачем? осуждать? - зачем - вам надо то что?
Эта линия - не рубикон - ее нельзя перейти, просто некоторые есть тоже, а некоторые люди есть.

Люди конечно ищут себе подобных - это нормально. Истина исходит не оттуда где спор - а от того что истинно и справедливо, а что вымышлено - альтернативные мнения - это дым.

Психо от греческого "душа". И да взаимодействие между людьми и их мышление - это 2 большие разные темы.

Насчет заболеваний - они имеют под собой таки более конкретные названия не связанные с терзаниями внутри - а заражением - обычно медики это называют "вирусная нагрузка" - из-за незнания не столько медиков, а того как устроена жизнь и с чем они имеют дело, я имею ввиду - те кто идет впереди медиков.
 
Последнее редактирование:
Если это люди - то помогает. Цель психологии для начала понять, а потом уже помочь пациенту справится с его расстройством - но это теоретически. Помочь это не поможет, когда заражение нарастает, но как временная таблетка за деньги, которые нужно молодежи платить, потому что это модно сейчас - позволяет этой отрасли жить.
Истина находится ни с одной из этих сторон - если проблема есть - то есть она - и исправить это на уровне психологов любого ранга невозможно - но хочется .... а куда деваться? - и приносит временное облегчение - и вот мы идем по кругу ....
 
Хороший пост от поискового ИИ кстати.

Скажу так, что не все люди популяции такие - потому что жить и играть в жизнь это разное.
 
Данный сайт использует cookie. Вы должны принять их для продолжения использования. Узнать больше…