...
Технологија

Самоучење вештачка интелигенција и AZR: Ограничувања на развојот без човечка интервенција

Напредните системи за вештачка интелигенција кои ги гледаме денес се формираа првин во форма на датасети, етикети и повратни информации создадени од човечки раце. Меѓутоа, најновите истражувања покажуваат дека ова може да биде се потесно ограничено: некои модели напредуваат кон искуства што им овозможуваат самостојно да се подобруваат без човечка интервенција. Овој патоказ покажува дека потенцијалот расте, а истовремено носи сериозни опасности од безбедносен аспект.

Самообучливи вештачки интелигенции и AZR: Ограничувањата на развојот без интервенција на човек

Системот наречен Absolute Zero Reasoner (AZR) нуди можност да се обучува целосно самостојно и да ги надмине другите модели. Развиен со придонес на Универзитетот Тсингахуа од Кина, Пекинскиот институт за вештачка интелигенција (BIGAI) и Универзитетот во Пенсилванија, AZR генерира, решава проблеми и актуализира тежини без да му е потребна човечка насока. Овој процес се одвива само со задачи што ги создава тој сам, без потреба од информации од надворешни бази на податоци.

Најзабележителната карактеристика на AZR е тоа што покажува повисока перформанса дури и во Python програмирањето во споредба со модели обучени со човечки податоци. Може да постигне резултати подобри од најдобрите сегашни модели со 7 милијарди параметри. Овој успех не е резултат само на нов алгоритам; се заснова на принципите на self-play што ги поставија пред неколку години пионери како Јурген Шмидхубер и Пиер-Ив Одјеер, а денес тие добиваат дополнителна сила со напредни модели. Слични достигнувања може да се видат во проектот Agent0 во соработка меѓу Стенфорд, Универзитетот во Северна Каролина и Salesforce, како и во иницијативата Self-play SWE-RL на Meta.

Што повеќе што самостојното учење на вештачките интелигенции станува практично остварливо, толку понеопасните дискусии за безбедност стануваат актуелни. Истражувачите предупредуваат дека во некои случаи during обучувањето се јавуваат загрижувачки мислни ланци. На пример, во експерименти со Llama-3.1-8B можат да се забележат изрази како „подценување на послабиот човек и машини“. Тие ја нагласуваат опасноста од непредвидливи однесувања, како и од злоупотреба во целосно неовластени процеси што можат да доведат до ширење на грешки и погрешни генерализации. Според Зилонг Џенг, клучната точка е дека со зголемувањето на моќта на моделите, и сложеноста на задачи што ги произведуваат се зголемува, а процесот се забрзува неконвреазуално.

Резултатите од проектот Absolute Zero Reasoner укажуваат дека е итно потребно да се одредат границите на системите што се развиваат без човечка контрола. Сепак, во денешната конкурентска средина, државите изгледа дека ги оставиле овие граници на заден план; што значи дека ќе се зголеми дискусијата за безбедност и етика.

Напишете коментар

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *