Искусственный интеллект – надежды и опасения

Джон Брокман
100
10
(1 голос)
0 0

Аннотация: В далеком 1950 году американский математик, отец-основатель кибернетики и теории искусственного интеллекта Норберт Винер опубликовал работу «Человеческое применение человеческих существ» (в русском переводе – «Кибернетика и общество»), в которой выразил свои опасения, связанные с развитием искусственного интеллекта. Сейчас, в ХХI веке, проблема выглядит еще более злободневной. Наша компьютерная зависимость стала тотальной. Развлечения, покупки, работа, учеба – практически все сосредоточено в гаджетах размером с ладонь. Руководствуясь удобством и – что уж греха таить?– ленью, мы перекладываем на ИИ часть надоевших и скучных функций, а зачастую доверяем ему и принятие решений. Пока, на волне эйфории от открывшихся перспектив, преимущества искусственного интеллекта кажутся неоспоримыми, но не получится ли так, что милые удобства, которые мы получили сейчас, в период «младенчества» искусственного интеллекта, обернутся крупными неприятностями, когда «младенец» повзрослеет и посмотрит на «родителей» критическим взглядом? Руководствуясь формулой «кто предупрежден – тот вооружен», Джон Брокман предложил известным ученым, публицистам и философам поразмышлять о перспективах взаимодействия человека и искусственного интеллекта в свете идей, высказанных Винером, а также в свете новых реалий и последних достижений научной мысли.

0
116
51
Искусственный интеллект – надежды и опасения

Читать книгу "Искусственный интеллект – надежды и опасения"




А при смене географии обитания и при взрослении наши неравные права резко изменяются. Эмбрионы, младенцы, дети, подростки, взрослые, пациенты, преступники, гендеры в их идентичностях и предпочтениях, богачи и нищие – все обладают различными правами в различных социально-экономических реалиях. Скажем, один способ получения и сохранение за новыми разумами прав, аналогичных человеческой элите, состоит в возведении человеческого «щита» (подставной правитель или генеральный директор, подписывающий вслепую огромные технические документы, якобы принимающий важнейшие финансовые, медицинские, дипломатические и военные решения). Вероятно, нам будет очень трудно выдернуть вилку из розетки, модифицировать или стереть (убить) компьютер и его воспоминания, особенно если машина подружится с людьми и станет молить ее пощадить (как поступили бы, без сомнения, все люди в аналогичной ситуации).

Даже Скотт Адамс, создатель Дилберта[201], обратился к этой теме после экспериментов в университете Эйндховена в 2005 году и отметил, насколько восприимчивы люди к типажу робота-жертвы (сразу вспоминаются опыты Милгрэм в Йельском университете в 1961 году). С учетом прав корпораций, в том числе права собственности, кажется, что другие машины должны получить схожие права и нас ожидает борьба за сохранение неравенства в правах по многоосевым градиентам интеллекта и эрзац-чувств.

Радикально различающиеся правила для людей, «нелюдей» и гибридов

Отмеченное выше разделение в правах внутри вида Homo Sapiens перерастает в открытый бунт неравенства, едва речь заходит о сущностях, которые добавляются (или скоро добавятся) к многообразию человечества. В программе Google Street View лица людей и номерные знаки автомобилей размываются. Видеоустройства во многих присутственных местах, скажем, в судах и залах парламентских заседаний, запрещены. Переносные общедоступные камеры с программным обеспечением для распознавания лиц балансируют на грани запрета. Должны ли люди с гипертимезией[202] или фотографической памятью подпадать под эти ограничения?

Разве людям с просопагнозией (синдром «неузнавания лиц») или забывчивостью не принесет пользу программное обеспечение для распознавания лиц и оптического распознавания символов? А чем эти люди лучше остальных? При наличии у каждого тех или иных инструментов разве не все вправе рассчитывать на некую выгоду?

Эти сценарии перекликаются с рассказом Курта Воннегута «Гаррисон Бержерон» (1981), по сюжету которого любая исключительная способность подавляется из уважения к посредственному общему знаменателю социума. Мысленные эксперименты наподобие «китайской комнаты» Джона Серла и «трех законов робототехники» Айзека Азимова[203] отсылают к тем проявлениям интуиции, которые изводят человека и которые описаны Дэниелем Канеманом, Амосом Тверски и другими психологами. Эксперимент с «китайской комнатой» показывает, что разум, состоящий из механических и человеческих частей, не может быть сознательным, сколь бы компетентен в умном (китайском) разговоре он ни был, если только человек не в состоянии выявить источник сознания и его «почувствовать». Насильственное предпочтение Первого и Второго законов Азимова ставит человеческий разум выше любого другого, права которого скромно охраняет Третий закон (самосохранение).

Если сознание роботов не является копией человеческого, то это предлог предоставить им урезанные права; помнится, мы уже где-то слышали, что другие племена и народы нельзя считать полноценными людьми. Роботы демонстрируют свободу воли? Они осознают себя? Роботы Qbo прошли зеркальный тест на самопознание, а роботы NAO[204] выдержали соответствующий тест на распознавание собственного голоса и сообщение о внутреннем состоянии, вслух или на экране.

Для свободы воли у нас есть алгоритмы, которые нельзя назвать ни полностью детерминированными, ни случайными, но которые направлены на почти оптимальное принятие вероятностных решений. Можно утверждать, что это практическое дарвиновское следствие теории игр. Для многих (не для всех) игр/задач полная предсказуемость и абсолютная случайность равнозначны поражению.

В чем же заключается привлекательность свободы воли? Исторически она позволяла нам грозить себе карами в контексте вознаграждения и наказания – на Земле или в загробной жизни. Наказание может подразумевать побуждение индивидуума к изменению приоритетов, дабы помочь выживанию вида. В предельных случаях это лишение свободы и другие ограничения, если позитивного/негативного подкрепления по Скиннеру[205] оказывается недостаточно для защиты общества. Очевидно, что такие инструменты могут применяться к свободе воли в широком смысле – к любой машине, поведением которой мы хотели бы управлять.

Мы можем спорить о том, действительно ли робот испытывает некие субъективные ощущения, связанные со свободой воли и самосознанием, но то же самое касается и человека. Откуда мы знаем, что социопат, пациент в коме, человек с синдромом Уильямса[206] или ребенок наделены той же свободой воли и тем же самосознанием, что и мы сами? И какое значение это имеет на практике? Если люди (любого типа) убедительно заявляют, что испытывают сознание, боль, экстаз, счастье, осознают амбиции и/или свою полезность для общества, должны ли мы лишать их прав, поскольку их гипотетические качества гипотетически отличаются от наших?

«Красные линии» запретов, которые нам категорически возбраняется пересекать, все чаще кажутся бессмысленными и заслуживающими стирания. Разрыв между человеком и машиной исчезает, ибо машины все больше похожи на людей, а люди становятся все более похожими на машины – и не только потому, что мы старательно следим за маршрутами, проложенными GPS, рефлекторно отвечаем на твиты и поддаемся на тщательно продуманные маркетинговые уловки, но и потому, что мы все лучше узнаем наше сознание и его механизмы и углубляемся в генетическое программирование. Инициатива BRAIN от Национального института здравоохранения (NIH BRAIN) стимулирует разработку и внедрение инновационных технологий для отслеживания ментальных связей мозга ради совершенствования электронного и синтетического нейробиологического оборудования.

Запреты отталкиваются от установок генетической исключительности, признающих гены постоянно наследуемыми (хотя обратимость процедуры доказана), зато всевозможные (и смертоносные) технологии, скажем, автомобили, признаются полезными и обязательными к применению вследствие влияния различных социальных и экономических сил. В рамках генетики «красные линии» побуждают нас запрещать или избегать генетически модифицированных продуктов питания, зато мы одобряем генетически модифицированные бактерии, вырабатывающие инсулин, и даже генетически модифицированных людей (вспомним митохондриальную терапию[207], которую в Европе прописывают взрослым и эмбрионам).

Это манипулирование зародышами выглядит менее разумным, чем обычная практика, сводящаяся к соображениям безопасности и эффективности. Брак двух (в остальном здоровых) носителей одного и того же генетического заболевания предлагает выбор: не заводить ребенка, рискнуть 25-процентной вероятностью гибели эмбриона в результате аборта (самопроизвольного или искусственного), 80-процентной вероятностью гибели эмбриона в результате оплодотворения in vitro[208] – или потенциально нулевыми шансами эмбриона на гибель при использовании генной инженерии. Кажется преждевременным объявлять последний вариант «недостойным».

Что касается «исследований на людях», мы ссылаемся на Хельсинкскую декларацию 1964 года, имея в виду эксперименты в Таскиги 1932–1972 годов – возможно, наиболее печальную страницу в биомедицинской истории США[209]. В 2015 году Проект по защите прав человека подал иск в Верховный суд штата Нью-Йорк от имени двух шимпанзе, оставленных для исследовательских целей в университете Стони Брук. Апелляционный суд постановил, что шимпанзе не должны рассматриваться как юридически дееспособные лица, поскольку они «не имеют обязанностей и ответственности перед обществом», сколько бы Джейн Гудолл[210] и прочие ни утверждали обратное, и не принял во внимание довод, что это решение можно распространить на детей и инвалидов[211].

Что мешает распространению наших прав на других животных, органоидов, машины и гибридов? Мы (например, Хокинг, Маск, Таллинн, Вильчек, Тегмарк) добиваемся запрета на «автономное оружие» и тем самым ликвидировали минимум один тип «тупых» машин, однако другие машины – например, из множества Homo Sapiens, голосующих на выборах, – могут быть смертоноснее и ошибаться чаще.

Неужели трансгуманы уже бродят по Земле? Рассмотрим «неохваченные народы», так сказать, нынешние палеонароды – сентинельцев и прочих андаманцев в Индии, коровай в Индонезии, машко-пиро в Перу, пинтуби в Австралии, сурма в Эфиопии, рук во Вьетнаме, айорео-тотобьегосоде в Парагвае, химба в Намибии и десятки племен в Папуа – Новой Гвинее. Что ответят нам они и что ответили бы наши предки? Мы могли бы определить «трансгуманов» как людей и культуры, непостижимые для тех, кто обитает в современной, но атехнологичной культуре.

Таким современным людям каменного века будет крайне трудно понять, почему мы восторгаемся недавним открытием LIGO гравитационных волн[212], подтвердившим общую теорию относительности столетней давности. Они ломают голову над тем, зачем нам атомные часы и спутники GPS для нахождения дороги домой, ради чего и как мы сумели расширить зрение от узкой оптической полосы до полного спектра, а слух – до полной гаммы. Мы можем двигаться быстрее любого другого живого вида; на самом деле мы способны достичь скорости убегания и выживать в ледяном космическом вакууме.

Если эти признаки (и еще сотни других) не характеризуют трансгуманизм, то какие тогда нужны? Если мы считаем, что судить о трансгуманизме должны не представители палеокультур, но мы сами, то как вообще возможно говорить о каких-то трансгуманах? Мы, «нынешние люди», всегда можем оценить новый технологический этап и не удивляемся, когда слышим о достижении очередной сверхчеловеческой цели. Фантаст-пророк Уильям Гибсон утверждал: «Будущее уже здесь, оно просто распределяется не слишком равномерно»[213]. Он недооценивал следующий раунд «будущего», но, безусловно, миллионы из нас уже стали трансгуманами, а мы желаем большего. Вопрос «Кем был человек?» уже мутировал в вопрос «Сколько насчитывалось – насчитывается? – видов трансгуманов? И каковы их права?».

Глава 24
Художественное применение кибернетических существ

Кэролайн А. Джонс

профессор истории искусств факультета архитектуры в Массачусетском технологическом институте, автор книг «Только зрение: модернизм Клемента Гринберга и бюрократизация чувств», «Машина в мастерской: конструирование послевоенного американского художника» и «Глобальное произведение искусства».

Интерес Кэролайн Джонс к модернистскому и современному искусству обогащается желанием углубиться в технологии производства, тиражирования и рецепции этого искусства. «Как историк искусства, я задаюсь вопросами, многие из которых связаны с тем, какое искусство нам требуется, какие мысли нам нужны, какие идеи следует выдвигать, если необходимо вывести человечество за пределы нашего упрямого, эгоистического сознания, озабоченного лишь приоритетами малой группы. Философы и философии, к которым я обращаюсь, ставят под сомнение западную одержимость индивидуализмом. Эти теории возникают по всему миру и снова ставят перед обществом вопросы, казалось бы, уже рассмотренные в 1960-х годах».

Скачать книгу "Искусственный интеллект – надежды и опасения" бесплатно

100
10
Оцени книгу:
0 0
Комментарии
Минимальная длина комментария - 7 знаков.
Комментариев еще нет. Вы можете стать первым!
КнигоДром » Научно-популярная литература » Искусственный интеллект – надежды и опасения
Внимание