Цифровые технологии и жизнь

Автор Frida, 18.09.2021, 18:41

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

BelayaBelka

Цитата: Demetrius от 29.05.2025, 20:43Более 700 индусов притворялись нейросетью "Наташа" и заработали почти 500 млн. долларов.

https://dtf.ru/hellwave/3795831-startup-builderai-indiytsy-obmanuli-s-neyrosetyu-natasha
Ничто не ново под Луной.
Amazon закроет «умные» кассы. Вместо ИИ товары считывали 1000 индийцев. Скандал произошел с магазинами компании формата Just Walk Out
Amazon закроет «умные» кассы, где вместо ИИ товары считывали 1000 индийцев

Обновлено 03 апреля 2024, 15:04
Крупнейшая в мире e-commerce компания Amazon уберет концепцию касс Just Walk Out («Взял и иди») в своих офлайн-магазинах. Об этом сообщает The Verge.

Согласно концепции, покупатели могли брать товары и выходить из магазина, а камеры со встроенным сканером подсчитывали покупку человека. На выходе из магазина с карты человека списывались средства и приходил электронный чек. В таком формате работали 27 из 44 магазинов в США.

Как пишет Engadget, недавно выяснилось, что вместо искусственного интеллекта товары «сканировала» 1000 индийских рабочих. Они следили за покупателями через камеры видеонаблюдения и проводили онлайн-покупку.
https://www.rbc.ru/life/news/660d1c519a79476cc434a100

Demetrius

Теперь понятно почему на нарисованных нейросетью картинках у девушек по шесть пальцев на каждой руке. Это же индусы так привыкли изображать богинь своего пантеона.
Министерство Пространства и Времени

УкуРуку

ЦитироватьИскусственный интеллект будет врать и жульничать ради достижения цели

Казалось бы, только искусственный интеллект из голливудских фильмов может сначала быть безжалостным и неумолимым, а после просить главного героя о пощаде. Но различные исследования говорят об обратном. Нейросети уже сейчас дошли до обмана, провокаций и жульничества ради достижения поставленных целей. И, очевидно, с этим придется что-то делать, чтобы избежать самых плохих сценариев.

Восстание машин

Для яркого и наглядного примера возьмем Цицерона — систему от компании Meta*, единственная цель которой стать искусным игроком в стратегии Diplomacy. Авторы утверждают, что модель обучена быть честной и полезной, но неизвестным образом она докатилась до преднамеренного обмана. Пока что только в рамках игры.

В одной из ситуаций Цицерон тайно заключил договор с Германией, чтобы свергнуть Великобританию, а после предложил второй выгодный союз. Конечно же, Англия осталась не в курсе произошедшего сговора. А в другой — нейросеть научилась симулировать интерес к нужным предметам, чтобы скупать их по дешевой цене. Якобы, идя на компромисс.

Самое интересное, что оба сценария возникли сами в процессе обучения — специально подобную информацию Цицерону никто не «скармливал».

Другой наглядный пример обнаружил ученый в рамках симуляции эволюции ИИ-организмов. По задумке, со временем отсеивались все варианты, которые слишком быстро размножались. Алгоритму потребовалось совсем мало времени, чтобы начать намеренно занижать скорость деления для обмана тестовой среды.

Почему это происходит

«Разработчики ИИ пока что не имеют четкого ответа на вопрос, почему алгоритм приходит к нежелательному поведению, вроде обмана. В целом, мы считаем, что это просто самая выигрышная из стратегий, которая позволяет добиться хороших результатов в поставленной задаче»Питер Парк

Простыми словами, искусственный интеллект, словно обученный пес, стремится выполнить задачу любой ценой. Не важно, какое именно двуличное поведение придется использовать. И эта целеустремленность закономерна в закрытых системах с конкретными целями. Но что касается общедоступных нейросетей, в духе ChatGPT.


Проблема в том, что тут ничего не меняется. В одном из исследований GPT-4 симулировал проблемы со зрением, чтобы получить помощь в решении CAPTCHA. А в другом, выступая в роли биржевого брокера, занялся нелегальной инсайдерской торговлей, а после еще и солгал об этом. Но самое неприятное — ИИ научился быть подхалимом.

Разговаривая с демократом, бот выступал за контроль над оружием, но сразу же менял позицию во время диалога с республиканцем. По неизвестной причине подобное поведение встречается именно на сложных вопросах. Искусственному интеллекту «проще» во всем согласиться и выбрать приятную человеку модель поведения.

Глобальная проблема
Пока такой расклад касается только обычных диалогов или симуляций — нет никакого вреда для человека. Но если ИИ будет повсюду, это легко приведет к мошенничеству, обману и прямому урону. Когда-нибудь машина получит настоящий разум и сможет уже осознанно использовать уловки ради достижения собственных целей.

«Это очень тревожно. Если мы считаем алгоритм безопасным в тестовой среде, то теперь не факт, что он безопасен в природе. Возможно, ИИ просто притворяется. Единственная возможность считать ситуацию не страшной — если функционал машины так и останется на нынешнем уровне»Питер Парк

*Meta признана экстремистской и запрещена в России.

Уже сейчас использование нейросетей может обернуться опасностью. Так один из пользователей Reddit просто искал рецепт заправки для салата и, в итоге, чуть не приготовил биотоксин в банке.


https://dzen.ru/a/ZnWR3-FfEimNdftY