Робот не может своим действием или бездействием причинить вред человеку. Робот должен выполнять все приказы, которые ему отдает человек. Робот должен заботиться о своей безопасности, но при условии, что это никак не повредит человеку. Так звучат «три главные закона робототехники», сформулированные Айзеком Азимовым, американским писателем-фантастом, еще в 1942 году. И на сегодняшний день, когда за создание искусственного интеллекта (ИИ) взялись с новой силой, эти правила как никогда актуальны.
Вообще к ИИ все относятся по-разному: кто-то считает, что за этим будущее человечества, а кто-то наоборот – уверен, что это приведет к будущему, где для этого самого человечества вообще не будет места. Сатья Наделла, глава компании Microsoft, относится к первой категории людей, и в своей недавней колонке для журнала Slate он дополнил законы Айзека Азимова более конкретными советами, которые актуальны для ИИ на сегодняшний день. Как раз о них и пойдет речь в этом материале.
Искусственный интеллект должен быть разработан только лишь для того, чтобы помочь людям, а не с целью заменить их. Роботы могут выполнять опасную работу (к примеру, тушить пожары или обезвреживать взрывчатку), но они точно никак не должны увеличить уровень безработицы в мире.
Процесс создания искусственного интеллекта обязан быть прозрачным. Все мы должны знать, как работает технология и каковы ее правила, как она видит и как анализирует реальность. Роботы будут понимать о людях все, поэтому и мы в свою очередь должны в них хорошо разбираться.
Для искусственного интеллекта должна существовать система алгоритмической подотчетности, которая бы сразу позволяла отключать технологию, если она начнет вести себя по неожиданному сценарию – некая кнопка «OFF». Это позволит предотвратить непреднамеренный вред, и вообще успокоить многих людей.
При разработке ИИ необходимо сделать огромный акцент именно на конфиденциальности данных его владельца, потому что технология будет иметь полный доступ к личной информации. Нельзя никак допустить, чтобы система опубликовала их в Интернете или еще в каком-то другом публичном месте.
Заниматься творчеством (рисовать картины, создавать скульптуры или писать музыку) должен только человек. Конечно, вмешательства искусственного интеллекта и в эту сферу избежать не удастся, но нужно понимать, что машина никогда не сможет мыслить по-человечески.
Мы с вами должны быть готовы уже в ближайшем будущем принимать медицинские диагнозы или юридические решения от искусственного интеллекта. Но в таком случае создали технологии должны четко понимать, что именно они несут ответственность за все действия своих творений.
Следует создать этические нормы для искусственного интеллекта, чтобы технология в один прекрасный момент не начала считать себя умнее какого-то конкретного человека, и не превратилась в рассадник расистских шуток и прочих неподобающих явлений.
Если подойти к вопросу и процессу создания искусственного интеллекта правильно (с использованием вышеперечисленных правил), то данная технология действительно поможет человечеству и заставит общество процветать. Простой пример: робот за считанные минуты (или даже секунды) найти среди миллиона документа нужный образец, на поиск которого обычный юрист может потратить не один месяц или может не найти вовсе…
Пожалуйста, никогда-никогда, ни под каким предлогом, ни для каких целей не используйте выравнивание от края до края. Веб давно переболел этой дрянью, ещё в девяностые, и с тех пор “text-align: justify;” давно стал моветоном. Ровный правый край не делает статью красивее, зато разные промежутки между словами в каждой строке — это просто ад для глаз. Очень трудно читается, очень.
Кстати, есть в css замечательное свойство hyphens, оно поможет с большой разницей в длинах строк (но не исправит проблем с justify).
Пожалуй, Вы действительно правы