(UA) IT/Tech Ukrainians in Canada
-
І можливо ще приклади 1) максимально вдалого використання гпт, коли він тобі дав саме ту відповідь яку ти шукав 2) максимальний фейл - гпт обманув тебе, або не зміг дати відповідь
-
в мене лінки не клікабельні
-
Its kinda mind blowing that was written in 1957
-
це не повязано з токинізацією?
-
Ну і давайте не забувати, шо правильно порахувати кількість букв R в слові strawberry може тільки супер нова 'reasoning model' після того, як подумає 🤷♂️
-
Ога HBR та APA - клікабельні Gallup - ні, але воно є Форбс - ні, і я статтю з таким заголовком знайти не зміг 🤷♂️
-
А моя 5річна дитина - знає 😃
-
я не знаю що таке облако оорта)
-
От ти знаєш, скільки в хмарі Оорта об'єктів? )
-
"як краще розказати дитині про устрій Сонячної системи" evil data degradation :)
-
я хз з чим це пов'язано, але коли я бачу це, в мене трохи відпадає бажання використовувати його для чогось серйозного Рецепти, як краще розказати дитині про устрій Сонячної системи, як з'являються наднови, яке це дерево на фото - sure
-
Бля Ну який інтелект у генеративної моделі 🙈 все, я пішов, добраніч, завтра продовжимо
-
хіба це якось напряму впливає на "інтеллект"
-
і люди і гпт мислить більше словами ніж буквами/звуками
-
хіба питання скільки букв в слові для чатгпт це не теж саме що запитати скільки звуків в слові у людини?
-
піди може там бомжам з даунтауна порозказуй що іх не існує)