Профессора философии предлагают наделить алгоритмы ИИ теми же правами, что есть у животных

Сегодня ИИ не так сильно развит, чтобы быть способным страдать: ничего не стоит пнуть робота или оскорбить голосового помощника — они не затаят на вас обиды. Но, учитывая темпы развития технологий, имеет смысл быть готовым к тому, что ИИ когда-то достигнет этого уровня. 

3 ч
Dmitry Mazalev
Комментариев: 0

Добавить в закладки 

https%3A%2F%2Fnaked-science.ru%2Farticle%2Fsci%2Fprofessora-filosofii-predlagayut
0
0

Обсудить 0 комм.
355

Выбор редакции

Сколько секунд до Марса? Возьмут ли вас в полет на Красную планету? Тест Naked Science

Университеты по всему миру проводят крупные исследования в области искусственного интеллекта. Не уступают им и технологические компании, включая Google и Facebook. Как следствие, вполне вероятно, что скоро мы получим настоящий искусственный интеллект, сравнимый по сложности мышления с мышами или собаками. По мнению Джона Базла (John Basl), профессора Северо-Восточного университета (Бостон, США), и Эрика Швицгебеля (Eric Schwitzgebel), профессора Калифорнийского университета в Риверсайде, настало время задуматься, при каких условиях ИИ заслуживает этической защиты, которую мы обычно предоставляем животным.

 

По словам ученых, современные алгоритмы искусственного интеллекта представляют собой бесчувственные инструменты человека, которые могут автоматизировать различные действия. Возможно, однако, что когда-нибудь у ИИ появится что-то, напоминающее сознательный опыт. Готовясь к этому дню, профессора утверждают, что нам необходимо создать свод основных правил, регламентирующих отношение к ИИ, уже сейчас. В своей публикации они предполагают, что алгоритмы ИИ заслуживают такого же этического отношения и прав, какими сейчас пользуются животные.

 

Сегодня ИИ не так сильно развит, чтобы испытывать подобие каких-либо чувств, включая страдание. Ничего не стоит пнуть робота или оскорбить голосового помощника — они не затаят на вас никакой обиды. Но, учитывая современные темпы технологического развития, имеет смысл быть готовыми к тому, что ИИ когда-то все же достигнет этого уровня. 

 

«В случае исследований на животных и даже на людях соответствующие средства защиты были установлены только после того, как стали известны серьезные этические нарушения (например, в случае ненужных вивисекций, военных нацистских медицинских преступлений и исследования сифилиса Таскиги). В случае с ИИ у нас есть шанс проявить себя с лучшей стороны», — отмечают профессора. 

 

Ученые соглашаются с мнением о том, что ИИ может не заслуживать этической защиты по причине того, что у этих роботов нет сознания: то есть, если у них нет осознаваемого опыта с настоящей радостью и страданиями. Однако профессора задают более сложный философский вопрос: как мы узнаем, когда создали нечто, способное на радость и страдание? Если ИИ похож на Долорес из сериала Westworld, он сможет пожаловаться и защитить себя, инициируя обсуждение своих прав. Но если ИИ нечленоразделен, как мышь или собака, или если он по какой-то причине не может сообщить о своей внутренней жизни, то о его страданиях мы и не узнаем. Ученые констатируют трудность этого вопроса, так как специалисты в изучении сознания еще не достигли консенсуса в том, что такое сознание и как мы можем определить его присутствие.

 

Эксперты обращают внимание читателей на то, что обсуждение «риска ИИ» обычно фокусируется на рисках, которые новые технологии могут представлять для нас, людей: в этом списке — захват мира и уничтожение человечества или, по крайней мере, разрушение нашей банковской системы. Менее обсуждается этический риск, который мы представляем для ИИ из-за возможного плохого обращения с ним. В силу этого специалисты предлагают создать надзорные комитеты, которые будут оценивать передовые исследования ИИ с учетом этих вопросов.

 

«Вполне вероятно, что такие комитеты сочтут все текущие исследования ИИ допустимыми. Согласно большинству основных теорий сознания, мы все же еще не создаем ИИ с сознательным опытом, заслуживающим этического рассмотрения. Но довольно скоро мы можем пересечь эту решающую этическую линию и должны быть готовы», — заключают ученые.

Источник: naked-science.ru

Домашний очаг