7 законов робототехники Сатья Наделлы

Робот не может своим действием или бездействием причинить вред человеку. Робот должен выполнять все приказы, которые ему отдает человек. Робот должен заботиться о своей безопасности, но при условии, что это никак не повредит человеку. Так звучат «три главные закона робототехники», сформулированные Айзеком Азимовым, американским писателем-фантастом, еще в 1942 году. И на сегодняшний день, когда за создание искусственного интеллекта (ИИ) взялись с новой силой, эти правила как никогда актуальны. 

Вообще к ИИ все относятся по-разному: кто-то считает, что за этим будущее человечества, а кто-то наоборот – уверен, что это приведет к будущему, где для этого самого человечества вообще не будет места. Сатья Наделла, глава компании Microsoft, относится к первой категории людей, и в своей недавней колонке для журнала Slate он дополнил законы Айзека Азимова более конкретными советами, которые актуальны для ИИ на сегодняшний день. Как раз о них и пойдет речь в этом материале.

Новые «законы робототехники» от Сатья Наделлы:

Искусственный интеллект должен быть разработан только лишь для того, чтобы помочь людям, а не с целью заменить их. Роботы могут выполнять опасную работу (к примеру, тушить пожары или обезвреживать взрывчатку), но они точно никак не должны увеличить уровень безработицы в мире.

Процесс создания искусственного интеллекта обязан быть прозрачным. Все мы должны знать, как работает технология и каковы ее правила, как она видит и как анализирует реальность. Роботы будут понимать о людях все, поэтому и мы в свою очередь должны в них хорошо разбираться.

Для искусственного интеллекта должна существовать система алгоритмической подотчетности, которая бы сразу позволяла отключать технологию, если она начнет вести себя по неожиданному сценарию – некая кнопка «OFF». Это позволит предотвратить непреднамеренный вред, и вообще успокоить многих людей.

При разработке ИИ необходимо сделать огромный акцент именно на конфиденциальности данных его владельца, потому что технология будет иметь полный доступ к личной информации. Нельзя никак допустить, чтобы система опубликовала их в Интернете или еще в каком-то другом публичном месте.

Заниматься творчеством (рисовать картины, создавать скульптуры или писать музыку) должен только человек. Конечно, вмешательства искусственного интеллекта и в эту сферу избежать не удастся, но нужно понимать, что машина никогда не сможет мыслить по-человечески.

Мы с вами должны быть готовы уже в ближайшем будущем принимать медицинские диагнозы или юридические решения от искусственного интеллекта. Но в таком случае создали технологии должны четко понимать, что именно они несут ответственность за все действия своих творений.

Thinking robot

Следует создать этические нормы для искусственного интеллекта, чтобы технология в один прекрасный момент не начала считать себя умнее какого-то конкретного человека, и не превратилась в рассадник расистских шуток и прочих неподобающих явлений.

Будущее за искусственным интеллектом?

Если подойти к вопросу и процессу создания искусственного интеллекта правильно (с использованием вышеперечисленных правил), то данная технология действительно поможет человечеству и заставит общество процветать. Простой пример: робот за считанные минуты (или даже секунды) найти среди миллиона документа нужный образец, на поиск которого обычный юрист может потратить не один месяц или может не найти вовсе…

Please wait...
Теги: , , , , , , ,
0
3 Комментарий
Сначала Новые
Сначала Старые Популярные
guest

Межтекстовые Отзывы
Посмотреть все комментарии
800147
800147
7 лет назад

Пожалуйста, никогда-никогда, ни под каким предлогом, ни для каких целей не используйте выравнивание от края до края. Веб давно переболел этой дрянью, ещё в девяностые, и с тех пор “text-align: justify;” давно стал моветоном. Ровный правый край не делает статью красивее, зато разные промежутки между словами в каждой строке — это просто ад для глаз. Очень трудно читается, очень.
Кстати, есть в css замечательное свойство hyphens, оно поможет с большой разницей в длинах строк (но не исправит проблем с justify).

Please wait...
Наверх

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: