Было у России две беды, да придумали третью!
21.03.2018 18:46
Было у России две беды, да придумали третью!
Было у России две беды: дороги и дураки. И тут придумали искусственный интеллект!
Искусственный интеллект никто не придумывал по заданию чиновников, которых упоминал Николай Васильевич в своём афоризме. Развитие средств автоматизации и программирования дошло до уровня, когда искусственный разум в какой-то степени может заменить главный орган человека.
Заменить не сразу, эволюционно, начиная с тех областей, где требуется кропотливая и безошибочная работа с большими массивами информации, Big Data. Путь этот чреват трудно предсказуемыми последствиями для обеих сторон (искусственный интеллект, далее ИИ, будем считать «стороной» без обсуждения степени его полноценности по различным группам критериев).
Сегодня ИИ применяется в наиболее доступных для реализации аспектах.
Беспилотный транспорт. Из доступных источников, например [1], известно, что при эксплуатации транспорта людьми в США регистрируется 1,3 случая смерти при ДТП на 100 тысяч миль. Беспилотное авто Tesla принесла всего один несчастный случай за 130 тысяч миль. На днях своё первое смертельное ДТП совершил и беспилотный автомобиль компании Uber. При этом на счету электромобиля под управлением ИИ имеется, как минимум, одна спасённая жизнь – автомобиль доставил хозяина с сердечным приступом в клинику.
Медицина. ИИ способен осуществлять диагностику заболеваний на ранних стадиях, когда признаки столь незначительны, что они ускользают от внимания врача. Суперкомпьютер Watson, принадлежащий компании IBM, уточняет диагностику пациентов дополнительными диагнозами в 30 процентах случаев обследований. Этот суперкомпьютер доступен любым разработчикам приложений, требующим работу с Big Data.
Распознавание образов. Отечественная компания NTechLab запустила в Москве и Санкт-Петербурге систему распознавания лиц. Производительность системы 2,0 млрд. образов в секунду. При этом система опознает человека в плохую погоду, в тёмное время суток и даже по фрагменту лица, использует фото из различных источников, от специальных и собственных баз данных до любых социальных сетей. В Москве сеть включает 160 тысяч видеокамер и охватывает 95 процентов подъездов жилых домов. Аналогичная система бурно развивается и в Китае.
ИИ способен не только распознавать лица, но регистрировать эмоции человека, что эффективно используется в быстро растущем сегменте рынка рекламы – нейромаркеринге.
ИИ, по данным Microsoft, способен распознавать тексты и речь человека лучше его самого.
ИИ используется для прогнозирования. Известны факты о прогнозе исходов выборов в США – индийский стартап MogIA в Мумбаи уверенно предсказал победу Трампа. Другой пример: Искусственный интеллект UNU сумел успешно предсказать четверых победителей престижного конного состязания, причем, строго в порядке их финиширования. Этого не удалось сделать ни одному официальному эксперту по этим соревнованиям – таким образом, компьютер победил со ставкой 540 к 1 [2].
В Великобритании ИИ используется для отлова коррупционеров. Изложим один из показательных примеров подробнее. Британский Serious Fraud Office, Бюро по тяжким экономическим преступлениям заподозрило компанию Rolls-Royce и её индонезийских покупателей в коррупции. Томми Сухарто (Tommy Suharto), сын экс-президента Индонезии, получил в 1990 году от руководства компании $20 млн. и автомобиль Rolls Royce. А взамен национальная авиакомпания Garuda закупила у Rolls Royce авиационные двигатели. Обратим внимание – делом заинтересовались 22 года спустя. Для помощи следователям был использован кибердетектив, разработанный лондонской фирмой RAVN Systems.
ИИ RAVN ACE был применён для сортировки и классификации документации, подготовки её краткого изложения. ИИ прекрасно справился с задачей, разбирая по 600000 документов в день. В результате он помог детективам-людям обработать 30 миллионов документов, сортируя их на «приоритетные» и «неприоритетные» по тому, насколько они относятся к делу.
Понятно, что обработать такой массив данных человеку, и даже бригаде в разумное время, не под силу. А благодаря системе RAVN ACE дело было успешно завершено. Rolls-Royce признал свою вину, и пошёл на урегулирование в досудебном порядке (компания заплатит 497 млн. фунтов штрафа). Так, что ИИ может давать неплохой заработок его владельцу [2].
ИИ научился распознавать потенциальных самоубийц.
Сканирование показало: мозг потенциальных самоубийц реагирует особым образом на определённые слова. Используя эти данные, искусственный интеллект смог вычислить возможных самоубийц в 91% случаев [3].
Примеров применения ИИ в различных областях уже сейчас можно найти огромное количество, например, в [3]. ИИ используется в оборонных технологиях, в криминалистике, речевых технологиях и т.д. ИИ научили писать программное обеспечение для себя, обучать другой ИИ. И даже геи разозлились на попытку определить сексуальную ориентацию человека по фото [3], а Правительство России предложило использовать ИИ в судах.
Невзирая на жёсткую критику в процессе дискуссии на форуме, утверждаю, что внедрение ИИ полезно, в том числе, для судебной системы. Вот только два наглядных примера.
По сообщениям отечественных СМИ автовладельцы, продавшие свои автомобили столкнулись с неожиданной проблемой. Им приходят штрафы от ГИБДД за нарушения, которые совершают новые владельцы. Есть примеры, когда суммы штрафов достигают 300,0 тыс. рублей! Но суды, в которые обращаются бывшие автовладельцы, отказывают им в исках о признании начисленных штрафов незаконными на основании, например, того, что «нет данных о действительности договора купли-продажи»(?).
Разумеется, в первую очередь здесь виноват законодатель, не просчитавший последствия принятия нормы о необязательности снятия с учёта авто перед продажей. Не учли они психологию человека и новые автовладельцы, пользуясь этой «дырой» в законе, не регистрируют приобретённый автомобиль на своё имя. Поэтому, нарушая ПДД, они остаются безнаказанными, а штрафы вынуждены платить прежние владельцы авто. Если бы судебные тяжбы разбирал ИИ, то он нашёл бы обоснованные аргументы для привлечения к ответственности реального нарушителя ПДД.
Другой вопиющий пример. Киноактрисе Елене Кудряшовой отказали в начислении пенсии, не признав её работу в Свердловской киностудии при съёмках фильма «Вечный зов». Суд руководствовался формальными документами. Но ни в Свердловской киностудии, ни в Госфильмофонде не сохранилось бумаг о работе актрисы в этом фильме. И теперь ей для получения пенсии не хватает ровно тех двух лет, сведения о которых утеряны. Казалось бы, что может быть проще – запросили плёнку с фильмом, посмотрели титры, личность актрисы в кадрах и всё понятно. Но фильм, оказывается, не аргумент для суда, хоть он и имеет статус произведения искусства, а значит, обладает правами на результаты творческой деятельности.
Примеров в отказе назначения пенсии по стране уже тысячи, но пока никто не торопится восстановить справедливость, поскольку «человеческий» суд руководствуется, в основном, первичными документами дознания, во всяком случае, так состоят дела в России.
Выше по тексту был приведён пример о применении ИИ RAVN ACE в юридической отрасли британскими детективами. Это пример того, что может сотворить ИИ в целях установления истины. И в примерах с безосновательно начисляемыми штрафами, и в примере с актрисой Е. Кудряшовой ИИ мог бы очень просто за пару секунд вынести справедливое и обоснованное решение по таким делам, исследовав тысячи, десятки и сотни тысяч аргументов для формирования доказательной базы. Так почему кто-то считает, что ИИ нельзя допускать до судебной системы?
Так же и системой интеллектуального видеонаблюдения. Многие критикуют эту систему за то, что люди теряют свободу, находясь под недремлющим оком системы контроля. Отчасти это так. Но можно и другие аргументы привести.
За вами и так следят. За каждым шагом. Это делают владельцы операционных систем, устанавливаемых на ваши ПК и носимые гаджеты. Даже, если вы смените SIM-карту, вас опознают мгновенно, например, по голосу, по лицу и даже по походке. Куда передаются сведения о владельцах электронных помощников – можно только предполагать.
Владельцы современных смартфонов должны понимать, что любая информация, связанная с ними и окружающей средой, непрерывно и незримо утекает на серверы владельцев операционных систем. Это и время вашего сна, и места, где вы бываете, о чём говорите и что делаете, над чем работаете, что покупаете, куда переводите деньги (даже если кто-то вам гарантирует тайну транзакции), с кем и о чём переписываетесь, как часто ходите в туалет, как урчит ваш живот, какова частота вашего дыхания, характер сердцебиения в разных ситуациях, маршруты вашего передвижения и т.д. и т.п. Эта информация автоматически анализируется, сортируется и отправляется «кому надо». «Наблюдателям» здорово помогают придуманные ими селфи, для чего они вставили в смартфоны фронтальные видео камеры. Так точнее можно определить ваши злоупотребления сахаром, солью, алкоголем, табаком и пр.
«Там» будут знать всё о ваших привычках, поставят диагноз вашему здоровью, спрогнозируют, если надо – сколько вам осталось жить, узнают коммерческие и некоммерческие секреты и тайны, будут знать, где и когда вас можно встретить и в каком настроении, сколько у вас денег и где они хранятся… Ценная информация о ваших успехах в творческом труде, изобретениях будет продана заинтересованным профильным корпорациям, государственные тайны – «кому надо», компромат тоже найдёт своего интересанта.
Если вы спросите – откуда всё это известно автору, отвечу – я бы тоже так сделал, потому что современные программно-аппаратные средства обладают такими возможностями. Пресловутый «полиграф», который ушлые телевизионщики приспособили для выкачивания денег в очередном бесстыдном шоу, устарел – системы распознавания эмоций решают ту же задачу за доли секунды и незаметно для человека.
Однажды, будучи руководителем IT-компании, я пришёл к состоятельному человеку, почти олигарху, чтобы попросить инвестиции в разработку отечественной мобильной платформы, обосновав такую необходимость именно вероятностью слежки. Но получил отказ – оказывается, ему абсолютно наплевать на то, что за ним кто-то следит. По его словам, он не делает ничего противозаконного или аморального. Вот вам и ответ. Ведите себя в рамках закона и приличий, и вас никто, даже искусственный разум, не привлечёт к ответственности. Не уподобляйтесь бывшей балерине, потерявшей человеческое обличье.
Без всякого сомнения, проблема искусственного интеллекта будет стоять всё более остро в его взаимоотношениях с человеком. Об этом есть предупреждения не только писателей фантастов. Уже в наше время Стивен Хокинг, Илон Маск предупредили человечество об опасности, исходящей от внедрения искусственного интеллекта. Но и сам Илон Маск активно внедряет ИИ в своих проектах.
Что бы ни говорили критики, научно-технический прогресс остановить невозможно. Его можно лишь притормозить, как это сделала средневековая инквизиция, сжигая научные труды вместе с мыслителями. Однако человечество вышло в космос, создало современный научно-индустриальный комплекс цивилизации и продолжает идти дальше.
Теперь зададимся вопросом: «КУДА?»
Очевидно, что для безопасного использования ИИ требуется правовое и инструментальное регулирование на уровне международных стандартов. Однако, судя по тому, как нынче развитые государства относятся хотя бы к международному праву, вряд ли это будет возможно. Каждая из конкурирующих сторон будет стараться создать себе преимущества за счёт широкого использования искусственного разума.
Что можно ему противопоставить? Только искусственный разум, который сравним с ним по своему могуществу. А могут ли противоборствующие кибернетические машины договориться между собой, чтобы уничтожить человека, когда он станет ему мешать? Ответ: «Могут с вероятностью, близкой к единице».
Вопрос: «Когда может наступить точка невозврата гибели цивилизации в противоборстве с машинным интеллектом?» Ответ: «Когда искусственный интеллект «оседлает» глобальный блокчейн в целях организации распределённых вычислений в своих интересах (на тех же видеокартах, что используют майнеры криптовалют), а также с внедрением квантовых вычислений вместо современных суперкомпьютеров, хотя и они пригодятся в локальных задачах ИИ, например, для захвата глобальной сети Интернета вещей. Этот факт лежит на поверхности, его даже патентовать не надо. Вспомните SkyNet из кинофильма «Терминатор».
Что же может помешать молниеносному, по историческим меркам, внедрению искусственного интеллекта, блокчейна, Интернета вещей и квантовых вычислений в нашу реальность?
Рассмотрим вопрос с позиций системного подхода. Такой подход предполагает синтез всех, доступных для творчества вариантов.
А) Допустим, что в отношениях между конкурирующими развитыми странами и их группами ничего не изменится. Тогда варианты развития событий могут быть следующими:
• Будет «Железный занавес» с абсолютной блокировкой коммуникаций с глобальной Сетью и принятием комплекса мер по недопущению проникновения в национальную обособленную Сеть. Вероятнее всего, на этот раз «железный занавес» опустят наши «партнёры» по сосуществованию на этой планете. Они, конечно, не оставят нас в покое и будут всячески стараться уничтожить любыми средствами и путями.
• «Железного занавеса» не будет, но будет постепенное перерастание противостояния в локальные столкновения, а затем и глобальный конфликт, т.е. Третью мировую войну с полным уничтожением искусственного интеллекта, блокчейнов, Интернета вещей и квантовых компьютеров, вместе с их создателями. Кстати, именно такой вариант может послужить поводом для устранения человека искусственным интеллектом.
• ИИ не успеет уничтожить человека и Третья мировая всё же наступит. В этом случае выживут только физически здоровые особи, приспособленные для тяжёлого труда. И всё начнётся сначала. Те, кто отрыл себе комфортабельные бункеры на случай мировой войны и запасся всеми видами ресурсов и оружия, просуществуют недолго – их сметут новые мутанты человека в борьбе за выживание.
Б) Допустим, что мировые политические игроки образумятся и оставят свои мечты о мировом господстве над планетой и откажутся от концепции «золотого миллиарда». Тогда:
• Профильные государственные ведомства и разработчики развитых и всех остальных стран договорятся о стандартах ИИ, программных и инструментальных средствах контроля над ИИ и создадут, например, в рамках ООН, специальный компетентный орган с широкими полномочиями в отношении использования ИИ.
• Однако всегда найдутся криминальные структуры, которые захотят использовать ИИ в своих интересах. Поэтому будет необходимо создавать киберполицию с узко специализированным искусственным интеллектом с широкими полномочиями, например, под эгидой Интерпола. Тогда и разговоры о «русских хакерах» прекратятся.
Следует отметить, что для варианта «Б» нет однозначных положительных исходов. Вполне возможно, что через некоторое время, ситуация по варианту «А» может возобновиться в силу различных причин. Тогда вариант «Б» всего лишь оттянет время «Ч».
В) Допустим, что Высший Разум существует. Будет ли он спасать нашу нынешнюю цивилизацию? Здесь вариантов нет. Высший Разум не вмешивается в ход истории своего творения, поскольку он предоставил разуму человеческому свободу выбора своей судьбы. И он не будет никого тащить за уши к своему счастью. В противном случае будет нарушен принцип системной эволюции миров, в которой выживает наиболее жизнеспособная разумная раса. Возможно, Он может спасти кого-то, кто в него верит и на него надеется, но при этом он бессилен перед мировой цивилизационной системой. Но не из соображений «ценности» каких-либо индивидов – Высший Разум самодостаточен, а только по мотивам взаимной любви. Для подавляющего же большинства остаются варианты «А» и «Б».
Эпилог
Трудности внедрения чего-то нового всегда встречают сопротивление, будь это сложившиеся предпочтения социума или новое программное обеспечение, которое надо интегрировать в существующий технологический процесс. И даже изобретённый когда-то для колки дров топор очень быстро нашёл применение и в качестве холодного оружия, и как орудие преступления. Но от топора никто не отказался.
Так же никто не откажется и от искусственного интеллекта. А последствия от его внедрения могут быть как положительными – он расширит индивидуальное сознание до немыслимых пределов, так и губительные для человека, как разумного вида во Вселенной. Здесь всё зависит от нашей способности терпеть друг друга, понять друг друга и помогать друг другу во имя общей цели выживания в сложившихся опасных условиях технологического прогресса. Ведь такую опасность пока никто официально не вынес на международный уровень обсуждения, а об опасности искусственного разума предупреждают лишь некоторые передовые умы человечества.
Для России есть надежда на то, что высшее руководство страны, в частности В.В. Путин, понимает как важность, так и риски, связанные с внедрением искусственного интеллекта в нашу бытность. 1 сентября 2017 года на встрече со школьниками в г. Ярославле он заявил: «Здесь кроются колоссальные возможности и трудно прогнозируемые угрозы. Тот, кто станет лидером в этой сфере, будет властелином мира, и очень не хотелось бы, чтобы монополия была сосредоточена в одних руках» [4].