...
Технологија

OpenAI Внатрешни политики и дебати околу ChatGPT: анализа преку случајот во Канадата

Во провинцијата Британска Колумбија во Канада, случајот каде 18-годишниот Jesse Van Rootselaar со огнено оружје уби 8 луѓе, порано привлече внимание на вработените во OpenAI по сценарија за вооружено насилство споделени преку ChatGPT. Додека продолжува внатрешната истрага на компанијата, одлуката дали ќе се предадат овие содржини на надлежните беше одложена.

Во јуни, активностите на Van Rootselaar кој ги споделуваше фантазиите за вооружено насилство на ChatGPT предизвикаа расправии внатре во компанијата. Милитантните врвни менаџери одлучија, сепак, да не ги предадат на полицијата. Следниот настан се случи на 10 февруари, кога Van Rootselaar прво со огнено оружје пукаше во своето семејство при дома, потоа во училиштето, што резултираше со смртта на 39-годишен помошник во образованието и пет ученици на возраст од 12–13 години. Повредени беа повеќе од 25 лица; напаѓачот потоа се самоуби.

OpenAI Внатрешни политики и дискусии за ChatGPT: Анализа од случајот во Канада

Прекинувајќи кратко време, федералната полиција потврди дека Van Rootselaar напуштил училиштето и дека во минатото биле повикувани полицајци поради нарушување на менталното здравје. Истрагата покажува дека нема цврсти докази дека бил цел на нападот. Политиките за безбедност на OpenAI останаа централни во дискусијата; компанијата, дури и да ги проценувала комуникациите, не направила официјално известување и стана директна мета на критики. Во блог-објава од август 2025, компанијата објави дека ги следат разговорите на ChatGPT поопасни содржини и дека тие ги пренасочуваат ризичните содржини на тимот за човечка евалуација, што ја зголеми дебатата. Исто така, најавија дека во случаи на опасност од злоупотреба, можат да се обратат до надлежните органи.

Обвиненијата за ментални здравствени кризи исто така го зголемија притисокот врз OpenAI. Минатата година, во седум различни тужби, се тврди дека корисниците по разговорите со ChatGPT доживеале паранои или извршиле самоубиство, што доведе до обвиненија за неправедна смрт и помагање при самоубиство. Компанијата, во одредени случаи, не само што ги истражуваше состојбите кои се нарекуваа „AI шизофренија“, туку и ја укина моделот GPT-4o во февруари и се обиде да одговори на дијалозите околу оваа тема. Телефонската вест потврди дека настаните постојат според OpenAI; сепак, не е јасно по какви критериуми се оценувале разговорите на Van Rootselaar и зошто не биле предадени на надлежните органи. Нејасно е и дали постојните политики се разликуваат од официјално објавените рамки.

Овие случувања поттикнаа серија дискусии за обврските на компаниите кои работат со вештачка интелигенција да пријавуваат потенцијални закани. Клучните прашања како заштита на приватноста, правната одговорност и границите во спречувањето на можните опасности, исто така, добија поголемо внимание во овој контекст.

Напишете коментар

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *