Nп/п : 82 из 100
От : Cheslav Osanadze 2:6078/80 11 июл 25 07:49:26
К : Nil A 11 июл 25 09:00:01
Тема : Hужны ли рулезы и модератор в локалке?
----------------------------------------------------------------------------------
@MSGID: 2:6078/80 6870a7b8
@REPLY: 2:5015/46 68709f2a
@TID: ParToss 1.10.073/ZOO/W32
@PID: GED+W32 1.1.5-b20240209
@CHRS: CP866 2
@TZUTC: 0200
Привет Nil!
11 Июл 25 08:01, Nil A -> Cheslav Osanadze:
DP>>> Еще как интересно! Hапример - можно взять посты Hила и натравить
DP>>> на них AI. Чтобы он на их основании составил правила. Кто-то
DP>>> такое пробовал? Hе думаю.
CO>> Не понятно, как составлять Правила? По каким критериям? Ведь
CO>> смысл эхи не в том, что в неё пишут, а в том, что задумывал
CO>> создатель.
NA> Одна из областей применения ИИ - спросить про чё статья/текст, чтобы
NA> кратко изложил суть. Справляется на ура! При этом похер на каком языке
NA> была статья, и каким научным языком там написано. Просто говоришь ему:
NA> "Перескажи смысл статьи в 10 предложениях, чтобы это понял средний 9ти
NA> классник".
Это то и я могу, мы так экзамен по немецкому сдавали в школе:
сосед по парте понял два слова из текста и я два слова, сочинили
портянку на полную страницу. Получили по трояку - "ставлю вам Зачёт, за
хорошее сочинение!", сказала училка, - Но текст был вообще не про это! :))
NA> Видимо идея DP в том, чтобы скормить Ниловские тексты из локалки, и
NA> попросить ИИ понять, за что Нил топит, за что ругает, и на базе этого
NA> создать формальные правила для фидонет эхоконференции. Должно
NA> сработать.
Не-а. Люди не двухбитовые, они топят весьма в разных "цветовых
дифференциациях" и потому - всегда крутятся или ближе или дальше от некой
"окружности дозволенного". Иногда, даже, пересекая грань, но! в пределах
дозволенного.
Т.е. надо учитывать и морально-психологический смысл в текстах, что
в сообщении собеседника - Главная мысль, а не второстепенный оффтопик
вдруг.
NA> Причём, если взять модель типа GPT-4.1, у которой размер
NA> контекста 1 миллион токенов, что грубо говоря 4МБ текста, то можно
NA> просто одним запросом отправить. Например, модели типа GPT 4o - 128k
NA> токенов, и это полмегабайта текста можно сунуть. А если хочется
NA> задёшево что-то очень часто спрашивать, то мелкие модели
NA> o4-mini/o3-mini, они по 32k, т.е. ~125КБ за раз хавают, правда
NA> полностью окно забивать не хорошо, потому что тут же ещё и вывод
NA> должен поместиться. И такие мелкие модели очень дешёвые, если платить
NA> именно за API, ну или на своём GPU крутить какой-нибудь R1 на 7
NA> миллионов с кватизацией в 4 бита, например, в 16ГБ видеопамяти влезет.
NA> Но тогда надо в такую модель сувать кусками, и каждый раз просить
NA> напиши резюме на прочитанное, и потом все эти резюме вместе слить.
"Очень интересно, но ничего не понятно!"(с) :)
NA> P.S. Говорил уже, этим и пугает ИИ, когда он в руках у контор/служб.
NA> Например, хранится где-нибудь архив почты мейлру, личная переписка,
NA> даже не посты в социалку, вроде как за конфиденциальность не сильно
NA> переживаешь. Натравливаем ИИ, одна минута на один мейлбокс, и у тебя
NA> портрет человека имеется - чем живёт, с кем общается, какие где косяки
NA> были.
Так я уже Дмитрию так и написал, примерно вспомнив, что я о себе
писал в фидо.:) Тут и номер телефона был, адрес, примерно про свою
биографию и биографию родителей...:)
Cheslav.
... Боюсь незаряженных ружей. Ими разбивают головы.
---
* Origin: ,,, (2:6078/80)
SEEN-BY: 5015/46 255 5019/40 5020/715 848 1042
4441 12000 5030/1081 6078/80
@PATH: 6078/80 5020/4441