» » Ожидайте оруэлловского будущего, если ИИ не будут держать под контролем, - говорит руководитель Microsoft.

Ожидайте оруэлловского будущего, если ИИ не будут держать под контролем, - говорит руководитель Microsoft.

45


Ожидайте оруэлловского будущего, если ИИ не будут держать под контролем, - говорит руководитель Microsoft.

Перевод и редактирование: http:///

Сюй Ли, генеральный директор SenseTime Group Ltd., идентифицирован системой распознавания лиц компании AI в выставочном зале компании в Пекине, Китай, 15 июня 2018 г. (Изображение предоставлено: Жиль Сабри / Bloomberg через Getty Images)

По словам президента Microsoft Брэда Смита, искусственный интеллект может привести к оруэлловскому будущему, если в ближайшее время не будут приняты законы о защите общества.


Смит сделал комментарии в программе новостей BBC «Панорама» 26 мая во время эпизода, посвященного потенциальным опасностям искусственного интеллекта (ИИ) и гонке между США и Китаем за разработку этой технологии. Предупреждение поступило примерно через месяц после того, как Европейский Союз выпустил проект правил, пытающихся установить ограничения на использование ИИ. Подобных усилий мало в Соединенных Штатах, где законодательство в основном сосредоточено на ограничении регулирования и продвижении ИИ в целях национальной безопасности.


«Мне постоянно напоминают уроки Джорджа Оруэлла из его книги« 1984 », - сказал Смит. «Основная история была о правительстве, которое могло видеть все, что все делают, и слышать все, что все говорят, все время. Что ж, этого не произошло в 1984 году, но если мы не будем осторожны, это может произойти. в 2024 году ».


Инструмент с темной стороной

Искусственный интеллект - это неточно определенный термин, но обычно он относится к машинам, которые могут обучаться или решать проблемы автоматически, без указания оператора-человека. Многие программы искусственного интеллекта сегодня полагаются на машинное обучение, набор вычислительных методов, используемых для распознавания закономерностей в больших объемах данных и последующего применения этих уроков к следующему раунду данных, теоретически становясь все более и более точным с каждым проходом.


Эксперты утверждают, что это чрезвычайно мощный подход, который применялся ко всему, от базовой математической теории до моделирования ранней Вселенной , но он может быть опасен в применении к социальным данным. Данные о людях предустановлены с предвзятостью человека. Например, недавнее исследование, опубликованное в журнале JAMA Psychiatry, показало, что алгоритмы, предназначенные для прогнозирования риска самоубийства, намного хуже работают с чернокожими и американскими индейцами / коренными жителями Аляски, чем с белыми, частично потому, что в медицинской системе было меньше цветных пациентов, а частично потому что у цветных пациентов меньше шансов получить лечение и поставить правильный диагноз, а это означает, что исходные данные были искажены, чтобы недооценить их риск.


Предвзятость никогда нельзя полностью избежать, но с ней можно бороться, - сказал Бернхард Траут, профессор химической инженерии в Массачусетском технологическом институте, который ведет профессиональный курс по ИИ и этике. Хорошая новость, сказал Траут Live Science, заключается в том, что снижение предвзятости является главным приоритетом как в академических кругах, так и в индустрии искусственного интеллекта.


«Люди в сообществе очень осведомлены об этой проблеме и пытаются ее решить», - сказал он.

https://www.livescience.com/orwellian-artifical-intelligence-future.html?utm_source=notification


новости | Ошибка? Пятница,10:55 0 Просмотров:23
Другие новости по теме:
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.