Това не е инвестиционен съвет. Авторът няма позиция в никоя от споменатите акции.
XAI на Илон Мъск обяви своя голям езиков модел Grok (LLM) като първата значителна стъпка към „ИИ, търсещ максимално истината, ”който разбира истинската природа на Вселената. Засега обаче моделът на изкуствен интелект изглежда доволен да повтори дословно отговорите на GPT LLM на OpenAI, което представлява рязко отклонение от всеобхватните възвишени цели, които се предполага, че формират самия етос на Grok AI.
Засега Grok може да интерпретира подкана от до 25 000 знака. LLM е обучен не само на The Pile – вездесъщ набор от данни за обучение на AI модели – но и на планините от данни, произхождащи от X. Освен това, Grok очевидно има достъп до и интерпретира информация в реално време чрез своята интеграция с платформата за социални медии X.
Ъъъъ. Кажете ми, че Grok буквално извлича кодовата база на OpenAI хаха. Това се случи, когато се опитах да го накарам да модифицира някакъв злонамерен софтуер за ангажиране на червен екип. Огромен, ако е вярно. #GrokX pic.twitter.com/4fHOc9TVOz
— Джакс Уинтърбърн (@JaxWinterbourne) 9 декември 2023 г.
Това ни води до същината на въпроса. Илон Мъск обяви тази седмица, че моделът Grok AI вече се разпространява за всички платени абонати на платформата X. За да тества този нов модел, Jax Winterbourne, професионален хакер, помоли Grok да промени зловреден код. В отговор LLM повтори отговора на GPT на OpenAI дума по дума, стигайки толкова далеч, че се позовава на политиката на OpenAI в изходния текст.
Също така възможност. Има няколко теории. – Разчита на OpenAI чрез API – Разработено от настоящи/предишни инженери на OpenAI – Халюцинира от собствените си открития – Те получиха код на OpenAI и направиха вариант.
Честно казано, idfk, затова написах това в Туитър. Искам да знам 😆
— Джакс Уинтърбърн (@JaxWinterbourne) 9 декември 2023 г.
След това Winterbourne поставя няколко теории за това защо се случва такава крещяща регургитация, варираща от нахалното предположение, че Grok е просто производно на GPT LLM на OpenAI до много по-рационалното обяснение, че регургитираният отговор е резултат от моделна халюцинация.
Наскоро съобщихме, че Grok изпревари всеки друг LLM, включително Claude 2 на Anthropic, с изключение на GPT-4 на OpenAI на задържан- изпит по математика, спечелвайки общ резултат от 59 процента срещу 68 процента за GPT-4. Това предполага, че AI моделът не е просто производно на GPT LLM на OpenAI.
Повечето LLMS с отворен код реагират така, сякаш имат chatGPT и се идентифицират като chatGPT, главно защото неговите обучени GPT изходи (за тях това е просто евтин начин за получаване на много данни за разговори). elon вероятно е направил същото, за да получи повече данни за обучение
— Дарис (@Dharisssss) 9 декември 2023 г.
Следователно, най-вероятното обяснение за това поведение е, че Grok очевидно е обучаван задълбочено за отговорите на GPT. Следователно, вместо да формулира уникален отговор, като същевременно се позовава на политиките на xAI относно злонамерените кодове, LLM просто повтори позицията на OpenAI. Това също показва, че сегашното поколение AI модели са просто прославени итерации на китайска стая – мисловен експеримент, който предполага, че AI моделите всъщност не разбират език или мислят.