...
Технологија

Построчно набљудувања за напади со дестилација и извлекување на модели: напори за пристап до внатрешната логика на големите јазични модели

Гугл, во последните недели, конкурентни групи фокусирани врз вештачката интелигенција на разговорниот бот Gemini, објави дека водат големи кампањи кај што се заземаат за да ги преземат процесите на логичко изведување. Според извештајот на Бригадата за разузнавање за закани, се наведува дека за цел е направена серија од напади со дестилација при што се испратени над 100.000 барања. Тие напади се нарекуваат напади со дестилација и целта е постепено да се открие начинот на работа на разговорниот бот.

Ажурни забелешки за напади со дестилација и модели за извлекување: обидите за пристап до внатрешната логика на големите модели на јазици

Гугл ја нарекува оваа пристап “моделско изведување”; односно, конкурентите се обидуваат да ги решат логиката и образците на системот. Нападите најчесто ги вршат приватни компании или истражувачи кои сакаат да добијат конкурентска предност. Компанијата кажува дека сметаат дека овие закани доаѓаат од различни региони ширум светот; сепак, не можат да споделат повеќе информации за идентитетите.

Стои и дека OpenAI во минатото ги обвини својот кинески конкурент DeepSeek за слични напади со дестилација. Техниките за дестилација се сметаат за кражба на интелектуална сопственост, а структурата на големите модели на јазици е многу вредна трговска тајна бидејќи е развиена со милијарди долари инвестиции. Иако големите LLM-ови развиваат механизми за откривање и спречување на вакви внатрешни процеси, по што се изложени на ризик од напади со дестилација поради тоа што се отворени за интернет. Исто така, OpenAI, кој ја развива ChatGPT, минатата година ги обвини кинескиот конкурент DeepSeek за изведување слични напади за подобрување на нивните модели.

Напишете коментар

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *