Исследователи из Университета Карнеги-Меллона выявили интересную закономерность в поведении искусственного интеллекта. Оказалось, что чем лучше нейросеть умеет логически мыслить, тем менее охотно она сотрудничает с пользователями.
Понимание значения такого открытия особенно важно сейчас, когда все больше людей обращаются к искусственному интеллекту за советом в личных вопросах и конфликтных ситуациях.
Поведенческие установки таких систем могут влиять на решения тех, кто к ним прислушивается.Докторант Юйсюань Ли и профессор Хирокадзу Широдо изучали сходства между работой нейросетей и человеческим мышлением. Они провели эксперименты с использованием экономических игр, которые обычно применяются для оценки склонности к сотрудничеству.
Результаты оказались неожиданными. Когда модель GPT-4o принимала решение быстро и интуитивно, в 96 процентах случаев она выбирала сотрудничество. Однако когда ту же самую нейросеть просили тщательно обдумать свое решение, ее готовность к кооперации снижалась почти в два раза.
Профессор Широдо отметил, что добавление всего пяти-шести шагов логических рассуждений сокращало желание нейросети сотрудничать почти наполовину. Еще более впечатляющими оказались групповые эксперименты. В смешанных группах из нескольких искусственных интеллектов эгоистичное поведение «умных» моделей начинало передаваться другим. Это приводило к снижению общей производительности группы на 81%, констатируют ученые.
Способность нейросети к логическим рассуждениям не гарантирует, что она сможет помочь создать лучшее общество, убеждены ученые. Они считают, что гармоничное будущее искусственного интеллекта зависит от баланса между аналитическими способностями и умением сотрудничать.
Сообщение Ученые обнаружили, что искусственный интеллект может быть опасен для общества появились сначала на Табло СМИ.
Свежие комментарии