На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Свежие комментарии

  • Кеша
    О нем только и пишут сейчас, новая звезда загорелась на небосклоне, звезда Ровшана- миллионера, чи ни чи! Я себе поти...Москвич выиграл 3...
  • Амара Карпова
    стыд и позор🤮Россия сравнялась...
  • Grandad
    И кто же там был хозяиром поля? Автор увлекся и "забыл" уточнить.Хоккеист Овечкин ...

Ученые обнаружили, что искусственный интеллект может быть опасен для общества

Исследователи из Университета Карнеги-Меллона выявили интересную закономерность в поведении искусственного интеллекта. Оказалось, что чем лучше нейросеть умеет логически мыслить, тем менее охотно она сотрудничает с пользователями.

Понимание значения такого открытия особенно важно сейчас, когда все больше людей обращаются к искусственному интеллекту за советом в личных вопросах и конфликтных ситуациях.

Поведенческие установки таких систем могут влиять на решения тех, кто к ним прислушивается.

Докторант Юйсюань Ли и профессор Хирокадзу Широдо изучали сходства между работой нейросетей и человеческим мышлением. Они провели эксперименты с использованием экономических игр, которые обычно применяются для оценки склонности к сотрудничеству.

Результаты оказались неожиданными. Когда модель GPT-4o принимала решение быстро и интуитивно, в 96 процентах случаев она выбирала сотрудничество. Однако когда ту же самую нейросеть просили тщательно обдумать свое решение, ее готовность к кооперации снижалась почти в два раза.

Профессор Широдо отметил, что добавление всего пяти-шести шагов логических рассуждений сокращало желание нейросети сотрудничать почти наполовину. Еще более впечатляющими оказались групповые эксперименты. В смешанных группах из нескольких искусственных интеллектов эгоистичное поведение «умных» моделей начинало передаваться другим. Это приводило к снижению общей производительности группы на 81%, констатируют ученые.

Способность нейросети к логическим рассуждениям не гарантирует, что она сможет помочь создать лучшее общество, убеждены ученые. Они считают, что гармоничное будущее искусственного интеллекта зависит от баланса между аналитическими способностями и умением сотрудничать.

Сообщение Ученые обнаружили, что искусственный интеллект может быть опасен для общества появились сначала на Табло СМИ.

Ссылка на первоисточник
наверх