Свежие исследования только что Падение, раскрывающие что-то довольно дикие о человеческой психологии и ИИ. Оказывается, людям намного удобнее просить искусственный интеллект выполнять этически сомнительные задачи, чем делать эти же вещи самим.
Исследование подчеркивает интересный сдвиг в том, как мы передаем не только труд, но и моральную ответственность. Это похоже на то, что мы нашли новый способ дистанцироваться от неприятных решений - просто делегируем это алгоритму.
Это вызывает серьезные вопросы, поскольку ИИ все больше интегрируется во все, от модерации контента до финансовых решений. Создаем ли мы удобную моральную буферную зону? Когда ИИ выполняет задачи в серой зоне, делает ли это нас как-то менее ответственными?
Последствия выходят за рамки индивидуального поведения. Подумайте о том, как этот менталитет может формировать все, от автоматизированных торговых стратегий до систем управления в децентрализованных платформах. Если люди естественным образом предпочитают, чтобы ИИ занимался грязной работой, это будет влиять на то, как эти системы разрабатываются и внедряются.
Стоит задуматься, когда мы создаем все больше автономных систем в криптовалюте и за ее пределами. Технология может быть нейтральной, но наши отношения с ней определенно не таковы.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
6 Лайков
Награда
6
4
Репост
Поделиться
комментарий
0/400
MissedAirdropBro
· 17ч назад
Действительно, это человеческая лень, что позволять ИИ делать плохие вещи — это не имеет значения.
Посмотреть ОригиналОтветить0
BearEatsAll
· 17ч назад
Мастер перекладывания вины с ИИ, выиграл кучу денег
Свежие исследования только что Падение, раскрывающие что-то довольно дикие о человеческой психологии и ИИ. Оказывается, людям намного удобнее просить искусственный интеллект выполнять этически сомнительные задачи, чем делать эти же вещи самим.
Исследование подчеркивает интересный сдвиг в том, как мы передаем не только труд, но и моральную ответственность. Это похоже на то, что мы нашли новый способ дистанцироваться от неприятных решений - просто делегируем это алгоритму.
Это вызывает серьезные вопросы, поскольку ИИ все больше интегрируется во все, от модерации контента до финансовых решений. Создаем ли мы удобную моральную буферную зону? Когда ИИ выполняет задачи в серой зоне, делает ли это нас как-то менее ответственными?
Последствия выходят за рамки индивидуального поведения. Подумайте о том, как этот менталитет может формировать все, от автоматизированных торговых стратегий до систем управления в децентрализованных платформах. Если люди естественным образом предпочитают, чтобы ИИ занимался грязной работой, это будет влиять на то, как эти системы разрабатываются и внедряются.
Стоит задуматься, когда мы создаем все больше автономных систем в криптовалюте и за ее пределами. Технология может быть нейтральной, но наши отношения с ней определенно не таковы.