Защо Grok AI на Илон Мъск извръща дословно отговорите на ChatGPT?

Защо Grok AI на Илон Мъск извръща дословно отговорите на ChatGPT?

Това не е инвестиционен съвет. Авторът няма позиция в никоя от споменатите акции.

XAI на Илон Мъск обяви своя голям езиков модел Grok (LLM) като първата значителна стъпка към „ИИ, търсещ максимално истината, ”който разбира истинската природа на Вселената. Засега обаче моделът на изкуствен интелект изглежда доволен да повтори дословно отговорите на GPT LLM на OpenAI, което представлява рязко отклонение от всеобхватните възвишени цели, които се предполага, че формират самия етос на Grok AI.

Засега Grok може да интерпретира подкана от до 25 000 знака. LLM е обучен не само на The Pile – вездесъщ набор от данни за обучение на AI модели – но и на планините от данни, произхождащи от X. Освен това, Grok очевидно има достъп до и интерпретира информация в реално време чрез своята интеграция с платформата за социални медии X.

Това ни води до същината на въпроса. Илон Мъск обяви тази седмица, че моделът Grok AI вече се разпространява за всички платени абонати на платформата X. За да тества този нов модел, Jax Winterbourne, професионален хакер, помоли Grok да промени зловреден код. В отговор LLM повтори отговора на GPT на OpenAI дума по дума, стигайки толкова далеч, че се позовава на политиката на OpenAI в изходния текст.

След това Winterbourne поставя няколко теории за това защо се случва такава крещяща регургитация, варираща от нахалното предположение, че Grok е просто производно на GPT LLM на OpenAI до много по-рационалното обяснение, че регургитираният отговор е резултат от моделна халюцинация.

Наскоро съобщихме, че Grok изпревари всеки друг LLM, включително Claude 2 на Anthropic, с изключение на GPT-4 на OpenAI на задържан- изпит по математика, спечелвайки общ резултат от 59 процента срещу 68 процента за GPT-4. Това предполага, че AI моделът не е просто производно на GPT LLM на OpenAI.

Следователно, най-вероятното обяснение за това поведение е, че Grok очевидно е обучаван задълбочено за отговорите на GPT. Следователно, вместо да формулира уникален отговор, като същевременно се позовава на политиките на xAI относно злонамерените кодове, LLM просто повтори позицията на OpenAI. Това също показва, че сегашното поколение AI модели са просто прославени итерации на китайска стая – мисловен експеримент, който предполага, че AI моделите всъщност не разбират език или мислят.