(UA) IT/Tech Ukrainians in Canada
-
Мне кажется обе проблемы имеют место после n - го промта на тот же контекст
-
Вот вот я про эту штуку
-
Как бы усиливаются наиболее вероятные ответы
-
Это reinforcement bias, да
-
Это лечат примесями шума в промт
-
Хм есть другое типа модель со временем увеличивает вес правильных ответов и потом ответы становиться очень однобокими практически одно и тоже повторяет
-
Мало того, если еще какой-то топик поднять, то вообще будет detail blending
-
Я именно про длинный чат
-
Может начаться hallucinating
-
Нет так он же говорит чат длинный а не все в один промт впаять
-
И тк мы идем дальше, то теряется многое
-
Оно как бы все время делает саммари, не хранит все.
-
Ну юзер уже только промптами))
-
А с overflow что обычно делают
-
А если юзер то шума подмешать
-
It depends, ну вот если ты не юзер, а именно инженер, то надо подкрутить randomness например, много факторов
-
Длинный чат во первых reinforcement bias а в придачу еще window overflow
-
Начать новый чат где сказать первым сообщением что мол вот есть такое самари и нужно теперь то и то доделать придумать
-
Составить свое саммари и обнулить контекст
-
Да, типа того. Я обычно на другой стороне процесса, и не все юзеры такие умные, увы)
23 Jan 2023, 01:02
628376/647407
29 Mar 2025, 13:52