...
Технологија

Грокипедиа Миксна ИИ содржини: Губишта и ризици

Најновите верзии на вештачката интелигенција можат да користат Grokipedia, извор целосно генериран од вештачка интелигенција, за да обезбедуваат информации. Според The Guardian, некои модели особено црпат извадоци од оваа AI-базирана енциклопедија за теми како иранската политика и помалку познати личности како британскиот историчар Sir Richard Evans.

Грокипедиа-базирани AI содржини: Патни камења и ризици

Самофинансирањето на вештачката интелигенција ја врати во прашање дебатата. Експертите сметаат дека податоците произведени од AI можат да ја намалат нивната квалитет и тоа може на крај да доведе до колапс на моделот. Цитирањето од одреден извор не значи автоматски дека тој е користен како тренинг податок, но за истражувачите носи одредени сериозни ризици. Еден од клучните проблеми е кога моделите понекогаш прават невистинити тврдења и се доведуваат во заблуда.

Додека моделот Clasudius на Anthropic се тестираше, беше забележано дека системот дал погрешни изјави; дури моделот во некои случаи тврдел дека ќе ги достави сам пијалаците. Nvidia претседателот Jensen Huang исто така призна дека решавањето на овој проблем ќе бара долго време и повеќе можност за пресметка во 2024 година. Многу корисници претпоставуваат дека информациите од алатки како ChatGPT се точни, а навиката за проверка на изворите речиси и да не постои.

Затоа, потврдувањето на точноста на содржините произведени од Grokipedia станува посложена задача. Содржините се целосно генерирани од AI без директна врска со уредниците, а корисниците можат само да побараат измени. Взаемната врска на вештачките интелигенции и праќањето меѓусебни изворови можат да создадат цикличен ланец на информации, што без проверка од страна на надлежните може да доведе до ширење на непотврдени информации. Се изразува опасност дека лажните информации ќе се повторуваат и ќе се претставуваат како вистина, што дополнително може да ја зголеми оштетната „подметната“ точност.

Митолошките приказни и легендите што се пренесувале низ историјата се шират многу побрзо thanks на дигиталната ера, преку вештачки интелигенции. Алаармините што се користат од одредени групи личат на опасност, бидејќи тие можете да ги искористите свесно. Според навестувањата на The Guardian, пропагандните мрежи користат метода наречена LLM-тримар за создавање на големи количества дезинформации, што ги хранат моделите со погрешни информации. Оваа пракса сега предизвикува загриженост и во САД. Google-овиот модел Gemini во 2024 година беше обвинет дека ги репродуцира официјалните говори на Комунистичката партија на Кина. Иако овој проблем моментално е решен, ако LLM продолжат да ги референтират непотврдени и нерегулирани извори на AI, тоа може да предизвика нови и сериозни ризици за корисниците.

Напишете коментар

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *