Етични опасения на ChatGPT

Данни за етикетиране
Беше разкрито от разследване на списание TIME, че за да изгради система за безопасност срещу токсично съдържание (напр. сексуално малтретиране, насилие, расизъм, сексизъм и т.н.), OpenAI използва външни кенийски работници, които печелят по-малко от $2 на час, за да етикетират токсично съдържание.Тези етикети бяха използвани за обучение на модел за откриване на такова съдържание в бъдеще.Изнесените работници бяха изложени на толкова токсично и опасно съдържание, че описаха преживяването като „мъчение“.Аутсорсинг партньорът на OpenAI беше Sama, компания за данни за обучение, базирана в Сан Франциско, Калифорния.

Разбиване на затвора
ChatGPT се опитва да отхвърли подкани, които може да нарушават правилата му за съдържание.Някои потребители обаче успяха да направят джейлбрейк на ChatGPT, като използваха различни бързи инженерни техники, за да заобиколят тези ограничения в началото на декември 2022 г. и успешно подмамиха ChatGPT да даде инструкции как да създаде коктейл Молотов или ядрена бомба, или да генерира аргументи в стила на неонацист.Репортер на Toronto Star имаше неравномерен личен успех в това да накара ChatGPT да направи подстрекателни изявления малко след старта: ChatGPT беше измамен да подкрепи руската инвазия в Украйна през 2022 г., но дори когато беше помолен да играе заедно с измислен сценарий, ChatGPT се отказа да генерира аргументи защо канадският премиер Джъстин Трюдо е виновен за държавна измяна.(уики)


Време на публикуване: 18 февруари 2023 г