Размер шрифта:
Цвет сайта:
Изображения: Вкл.

Платформа

Назад
РГСУ Life
Три лика ИИ

Алиев Джомарт Фазылович

Первый проректор РГСУ, к.э.н., DBA, PhD

Три лика ИИ

(из выступления на Учёном Совете РГСУ, июнь 2022)

             

В феврале 2018 года MIT Technology Review опубликовал обзор большого исследования от команды из более, чем из 20-ти человек, представлявших Oxford Un., Cambridge Un., OpenAI и Electronic Frontier Foundation. Названием исследования было «Вредоносное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение» («The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation». Его основным содержанием было описание четырёх антиутопических виньеток с искусственным интеллектом, как будто взятых прямо изNetflix’овского фантастического шоу «Чёрное зеркало».

        

Отмечая успехи в области ИИ и позитивность его практического применения, авторы отметили, что этими же самыми наработками создаются благоприятные возможности для «преступников, оперативников и деспотов». В сухом остатке - вывод о том, что некоторые исследования в области ИИ необходимо, видимо, засекречивать.

          

Уже через год, в феврале 2019-го, один из директоров OpenAI Джек Кларк (Jack Clark) заявил тому же MIT TR, что их компания разработала и запустила языковый алгоритм общего назначения, обучив его на сетевом объёме более 45 млн. страниц обычного немаркированного текста. Это очень важно - обычного текста из Reddit (это один из самых посещаемых сайтов мира, сочетающий черты социальной сети, форума и системы голосования). Отметим, что практически у всех их конкурентов на тот момент времени, а у многих - и посейчас, требовалась специальная подготовка обучающей фактуры, что дороже, дольше, и, увеличивая риски калибровки, снижало качество готового продукта.

           

И вот, после такой прокачки на нескольких миллиардах слов, алгоритм OpenAI оказался пригоден не только для использования в переводах и ответах на вопросы, но и показал эффективность в генерации фантастических рассказов и новостей о событиях, которые никогда не происходили. Процитирую Кларка: «совершенно очевидно, что если эта технология созреет - а я бы дал ей один или два года - она может быть использована для дезинформации или пропаганды». А вот продолжение его цитаты «we’re trying to get ahead of this», можно понять диаметрально противоположно. От «мы постараемся помешать фейкингу» до «мы его возглавим». Подсказку к смыслу сказанного даёт то, что даже MIT, далеко не самому последнему исследовательскому институту Америки, «детишки» Илона нашего Маскапередали на тестирование лишь версию своего алгоритма с усечённой функциональностью.

      

Ещё через год, весной 2020-го года, OpenAI опубликовала свой знаменитый алгоритм обработки естественного языка третьего поколения GPT-3 (Generative Pre-trained Transformer) на 175 млрд. параметров (для сравнения - лучшая цифра Сбера: 13 млрд. для ruGPT-3). Летом того же года OpenAI открыла клубный API-доступ, объяснив ограничения желанием контролировать использование технологии и ограничивать доступ тем, кто ей «злоупотребляет». А осенью 2020-го Microsoft получил от OpenAI эксклюзивную полную лицензию на использование GPT-3 в своих продуктах и доступ к исходному коду технологии. После такой динамики мы все, конечно же, верим, что никто ни от кого ничего в области искусственного интеллекта не скрывает!..

Однако рассмотренный кейс комментирует лишь один, причём объективно средний по важности, взгляд на проблематику искусственного интеллекта. Безусловно, в текущих внешних обстоятельствах, связанных с ведущейся против нас гибридной войной, этот литературотворческий аспект искусственного интеллекта самый, пожалуй, хАйповый. Но как говорится, «всё проходит, и это пройдёт». Как ответил тому же Кларку его коллега Ричард Сочер (Richard Socher), научный руководитель ещё одного калифорнийского ИТ-гиганта - компании Salesforce (мирового лидера CRM, между прочим), «для создания фальшивых новостей не нужен искусственный интеллект; люди сами могут легко это делать».

             

В общем - весёлая у них там жизнь, у американских айтишников… Но в смысле основного содержания темы нас гораздо больше должна интересовать фундаментальная подкладка тематики искусственного интеллекта, в том числе - его фактическое распространение и отдельные прикладные аспекты.

       

Ещё одна близкая к американским спецслужбам группа товарищей из МакКинзи, примерно тогда же, когда стартовала эта история с «Чёрным зеркалом» от Кларка-сотоварищи, опубликовала своё исследование распространённости систем искусственного интеллекта в индустриях нашей жизни. По горизонтали здесь приведена рыночная доля компаний, использующих в своей основной или в развитийной деятельности как минимум одну систему ИИ; а по вертикали - траектории спроса на системы ИИ в оценке средних ожиданий в предстоящие 3 года. Все данные взвешены по размеру компаний и, поскольку заявленный в исследовании период уже прошёл, можно с уверенностью говорить, что сегодня уровень ИИзации нашей жизни точно выше этих данных.

         

Нам же важно, что системы ИИ уже в 2019-м году были материальны в 7-ми отраслях:

  • хайтек и телекоммуникации;
  • финансовая сфера;
  • машиностроение и конструкторская деятельность;
  • энергетическая сфера и природные ресурсы;
  • средства массовой информации и масс-культура;
  • транспорт, перевозки и логистика;
  • товары народного потребления.

На подходе ещё тогда было 6 отраслей:

              

  • розничная торговля;
  • образование;
  • здравоохранение;
  • строительная индустрия;
  • профессиональные сервисы
  • туристическая индустрия и пассажирские перевозки.

Общественно-социальное значение этой «чёртовой» дюжины в совокупности таково, что мы обязаны констатировать - поляна искусственного интеллекта, при всех его недостатках и проблемах, о чём будет сказано ниже, уже сложилась, приобрела все признаки социального феномена и стремится к своей институционализации исключительно высокими темпами. Согласно нашей с вами уточнённой стратегии развития Университет обязан присутствовать в этом социально-экономическом сегменте. Соображения о вариантах такого присутствии мы сегодня и постараемся предложить.

        

Будем краткими и вместо детальных подводок сразу предложим выводы:

  1. Как бы мы ни относились к цифровой экономике, она всё больше входит в нашу жизнь, а цифровые сервисы реальной экономики интегрируются, по-видимому, навсегда. Оценки мировых годовых прямых инвестиций в развитие ИИ не опускаются ниже эквивалента 75 млрд.$ и доходят в некоторых рамках до 100 млрд.$. А оценки эффектов от ИИ уже колеблются около планки 20% от прибыли.
  2. Российские связанные дигитальные индустрии, при серьёзной заявленной поддержке федерального руководства вплоть до высшего уровня, пока присутствуют в ИИ где-то в боковых течениях с отдельными случаями больших успехов и заплывов в мейнстрим.
  3. Отечественный рынок акторов ИИ очень амбициозен, весьма конкурентен, имеет высокий, но не сбалансированный потенциал развития при общей текущей слабости технологических и инфраструктурных ресурсов.
  4. Несмотря на высокую конкурентность участия, субстантивная проблемность и уровень зрелости (а вернее - незрелости) отдельных аспектов ИИ таковы, что возможность результативного вхождения на «поляну» при выверенной стратегии и наличии качественных дебютных идей сегодня всё ещё практически открыта.
  5. В российских потенциалах, в т.ч. в нашем научном наследии, имеются уникальные возможности теоретического и практического свойства, прагматичное перепрочтение которых позволяет рассчитывать на прорывные достижения.
  6. Исторически сложившееся предметное научно-образовательное покрытие в РГСУ более, чем соответствует задачам позиционирования в роли содержательного игрока на российской и даже мировой «поляне» ИИ.

     

С учётом первых 3-х буллитов, сосредоточим своё внимание на 3-х последних.

Начнём с проблем. У нас, конечно, нет амбиции представить все существующие проблемы ИИ. Представляется, что сегодня это просто не решаемая задача. Полагаем, что нам важно посмотреть на те проблемы, которые открывают перспективы эффективного вовлечения в проблематику искусственного интеллекта. Посмотрим, как обычно, «горячую десятку»:

     

1. Проблема исходных данных.

Любая модель для своего практического применения требует данных. ИИ не исключение - без нужного количества нужных данных создать практически полезное решение с ИИ невозможно. Всем сегодня известны примеры ИИ с распознаванием лиц; это абсолютно чемпионская технология ИИ, а поставщик московского метро, российская NtechLab, вообще с отрывом выиграла первый же конкурс американской разведки (2017) со своим алгоритмом FindFace. Все подобные ИИ обучаются на датасетах с десятками и сотнями тысяч лиц; в данном случае это несложно (видеосигнала очень много и он весь цифровой) - вот нам и чемпион. Но что ожидать, если данных мало? Или они не подготовлены? Или некачественны? Или нерелевантны? В Новой Зеландии, к примеру, периодически встречаются затыки с въездом в страну азиатских граждан, которых упорно не распознаёт ИИ-система, обученная на местных жителях преимущественно европейской внешности. Да и вообще - ИИ по определению не оценивает объективную реальность; он создаёт свою и работает с ней. А поскольку обучение идёт на исторических данных, то с предиктивностью ИИ, как современная молодёжь пишет иногда в своих статусах, «всё сложно»…

           

2. Проблема динамических данных.

Хорошо - систему создали и даже обучили; что дальше? И снова российский FindFace нам в помощь. Потоковое видео достаточного разрешения (200 тысяч московских камер обошлись в 5 млрд.₽) и подлежащая обработке информация уже, что называется, «на столе». Или текстовки в социальных сетях - качественные цифровые объекты прямо «с рождения». А если что посложнее? Типа землетрясений или расшивки логистических авралов… Тут уже не только задачи первичного сигнала придётся решать, но и задачи доступа, транспорта, синхронизации и тому подобные. Порой ИИ в отработке динамических данных бывает просто невозможно понять; или хотя бы отследить их логическую цепочку, в соответствии с которой система делает выводы. Хорошо, если такие блэк-боксы позитивны, как в ИИ Deep Patient (США, 2015), который точно диагностирует шизофрению в случаях, когда «живые» медики пасовали. Но большинство случаев имеют, к сожалению, противоположный знак.

         

3. Проблема цифровой гигиены.

В смысле безопасности данных. С энтузиазмом всех новообращённых мы окунулись в сладостный мир цифры; ну, или нас окунули - сейчас это пока неважно. И? Потекли эти данные совсем не туда, куда должны бы были по исходному замыслу. Люди теряют свои деньги, квартиры, здоровье. И это для статичных систем. А в случае с ИИ последствия ещё серьёзнее - вспомним Сергея Межуева и его приключения в роли преступника в октябре 2020-го на станции «Братиславская». Тогдашние МВД’шные отговорки про инструкции - это и правда лишь отговорки. Бывают, конечно, у таких «сбоев» ИИ и позитивные эмоции; когда, например, в 2018-м система Amazon’а опознала как преступников 28 членов Конгресса США. На мой личный взгляд там преступников ровно все 641, но если вернуться к искусственному интеллекту, то цифровая гигиена и связанные с ней аспекты кибербезопасности - это серьёзная проблема.

       

4. Проблема фейковых данных.

Сегодня ИИ не способен различить правду и вымысел; про отличия правды и истины даже мечтать пока не приходится. В этом смысле искусственный интеллект совсем не интеллект. Каждый сражается с этой проблемой как может. Facebook, например, отключил в части фейк-анализа свои ИИ и нанял 10 тысяч модераторов только для оценивания «культурных нюансов публикаций». Когда об этом стало известно, айти-сообщество оценила такое решение как некий проигрыш. С марта этого года понятно, что подоплёка решения заменить железку живыми модераторами была, вероятно, совсем иной. Хотя такая переоценка не отменяет проблему фейкинга для перспектив внедрения ИИ в целом.

         

5. Проблема оценочных суждений.

Когда Facebook нанял на работу «модераторов правды», большинство участников рынка отнеслись к этому действию в ряду прочих неудачных экспериментов Цукерберга в так называемой «борьбе» с насилием, буллингом, жестокостью, обнажёнкой и прочими его проигрышами. В реальности проблема много проще: ИИ сегодня, умея отчасти и криво распознавать эмоции, не умеет их оценивать; от слова совсем. А некоторые исследователи сомневаются в том, что это вообще решаемая задача. Нашу позицию на этот счёт приведём чуть позже; а пока лишь отфиксируем то, что эмоционально-основанные суждения искусственному интеллекту сегодня действительно не по зубам. Более того - при современных технологиях создания и обучения,в ИИ «отпечатываются» образ мышления и ценности их разработчиков; у их создателей в большинстве случаевесть проблемы с пониманием и знанием психологии, социологии и других ключевых гуманитарных дисциплин, что точнопровоцирует появление этических проблем. Как итог: без коррекции базовых посылок и технологий, объективным и беспристрастным ИИникогда не будет.

         

6. Проблема прав и ответственности.

IBM’ский онколог Watson с совпадением до 93% рекомендует протоколы лечения, аналогичные мнению лучших американский врачей для 13-ти разновидностей рака. И что? Да ничего - врачи отказываются делегировать решение медицинских вопросов искусственному интеллекту. Да, в ряде случаев объяснение этому отказу было в том, что мы озвучили как первую проблему - выборки данных, на которых обучали Ватсона, были американскими и ориентировались на их врачебные практики и методы. Но глубинные проблемы здесь всё-же иные - кто будет нести ответственность за возможные ошибки и последствия? Кто и какие свои права готов делегировать искусственному интеллекту и на каких условиях? Кто поедет на робомобиле? А кто ответит, в случае чего, за его аварию? Когда в 2015 году на заводе Volkswagen робот принял рабочего за автодеталь, трагедию оплатил концерн; но тут же исключил эту группу кейсов из производственной страховки. А кто сегодня компенсирует американским момочкам потери от 3-х кратного роста цен на детское питание, производство и поставки которого ошибочно (хотя ошибочно ли?) не спланировал интеллектуальный ассистент Wallmart’а? А для Америки это ведь просто катастрофа - грудью-то там уже лет 50 не кормят; никаких молочных кухонь и никаких декретных отпусков там тоже нет. В общем, это проблема, причём проблема дипольная - это и отказ от части своих прав, и тема адреса и концентрации ответственности.

       

7. Проблема доверия и контроля.

Ещё одна острая проблема ИИ психологического свойства, корреспондирующая на этот раз сразу с тремя первыми, это проблема доверия. Люди не обязаны понимать как устроен тот или иной искусственный интеллект; да, откровенно говоря, и некоторые разработчики сами иногда не вполне понимают как работают их детища. В тех случаях, когда будет выбор, люди скорее не доверят «чёрному ящику», чем доверят. Я вот не могу не иметь эккаунта на Госуслугах; я вынужден; и я имею. А вот регистрировать свой фейс в Сбере я не вынужден; я эту функцию и не активировал. Американцы считают, что если люди будут как-то вовлечены в донастройки ИИ, они будут более доверчивы к нему. Отмечая некий позитив сонастроенности в аспекте приятия, зададимся вопросом «а как»? Как вовлечь? И во что? В облигатОрных системах доверия никто и не ждёт. Так что эта проблема чисто консьюмерских систем ИИ с выбором. Но вот в них доверие - это реальная проблема, которая немедленно трансформируется в субпроблему контроля. От качественного ИИ до суперинтеллекта лишь шаг и не факт, что этот шаг доведётся сделать нам - сразу два президента Ассоциации преимуществ ИИ (AAAI) Том Диттерих и Эрик Хорвиц предупреждают о проблеме внезапного зарождения суперинтеллекта, ссылаясь на попытки сориентировать ИИ на работу с намерениями людей против буквального выполнения команд. А от Стивена Хокинга и нобелевского лауреата Фрэнка Вильчека из MIT мы имеем прямой призыв начать исследования проблем контроля систем ИИ ещё до того, как это случится.

            

8. Проблема креатива и творчества.

Искусственный интеллект, по крайней мере пока, лишь подражает человеку. Медийные дома уже давно пишут спортивные новости и криминальную хронику, используя ИИ. Но с творчеством и креативом у искусственного интеллекта пока очень слабо.

Летом 2018-го известный ИИ-эксперт Джанель Шейн (Janelle Shane)из AI WEIRDNESS провела обучение общедоступного ИИ TextGenRNN из MIT-портфеля на датасете Kaggle, содержащем 231 657 американских «тук-тук» шуток от лучших стендаперов. Вот итоги его отработки. Последняя из приведенных мне лично чем-то нравится; хотя совсем не смешно…

      

Прошло 3 года и прошлой весной г-жа Шейн протестировала уже ту самую чемпионскую GPT-3, причём во всех 3-х её версиях - самой продвинутой (DaVinci), базовой (Curie) и облегчённой (Ada), поручив им производство шуток к 1-му апреля; DaVinci ещё были поставлены уточнения «про пошутить» в режиме КОВИДных ограничений.

Результат у вас перед глазами:

Процитирую одного нашего ИИ-эксперта: «глядя на шутки нейросети, невольно думаешь о том, как же хорош Петросян».


 

 

       

Суммируя верхние восемь проблем, обнаруживаем ещё одну сводную проблему.

          

9. Проблема детерминации ИИ.

Сначала был Тамагочи, потом - робособака Айбо, затем - робот Пеппер; сейчас фурорит гуманоидная София. Искусственный интеллект в той или иной форме уже вокруг нас. Но, «спасибо» Голливуду, мы его продолжаем опасаться: от железного Арни в его бессмертной ипостаси до всяческих Wall-E и Уилла Смита с Брюсом Уиллисом. Официалы тоже не отстают в этой гонке кошмариков: в Британии предсказывают, что в ближайшую декаду ИИ-автоматизация сократит 4 млн. рабочих мест только в частном секторе, а в США 47% рабочих мест числят из-за ИИ «находящимися в зоне риска» в смысле ликвидации.

       

Сегодняшний технологический уровень систем ИИ позволяет прогнозировать погоду, убирать дома, тестировать лекарства, рассчитывать страховки, решать подчинённые оборонные задачи и т.п. Но пока ни одной системе не удалось, пусть даже с огрехами, и близко пройти «кофейный тест» ВознЯка; напомню: один из основателей Apple ждёт от робота войти в незнакомую квартиру, найти кофеварку, налить воды, достать кружку и приготовить кофе. Проблема в том, что мы сами не знаем о чём мы говорим, говоря об интеллекте. Основатель Курсеры Эндрю Ын, например, уверен, что автоматизировать системами ИИ можно только те интеллектуальные задачи, с которыми человек справляется быстрее секунды. Во внеэкспертном обществе долгие годы маркером интеллекта была игра в шахматы; сегодня железки щёлкают мировых гроссмейстеров на закуску; но даже самые продвинутые чат-боты и голосовые ассистенты в осмысленных разговора не ушли дальше пятилетнего ребёнка.

            

Представляется, что сегодня мы можем говорить лишь о перспективе автоматизации рутинных операций. И да, в этом смысле профиль будущего востребования специалистов изменится. Да он уже меняется…

              

Чем больше ИИ-машин и ИИ-систем будет появляться, тем больше понадобится людей, которые будут им помогать на каждом этапе - от родовспоможения через обучение и до текущей деятельности. Так, как это выглядит сегодня, даже самому продвинутому текст-боту всегда будет нужен редактор, а ИИ, подбирающему кадры - консультант. Любой системе рекомендательного сервиса нужен апдейтер, а военному комплексу - командир. Этот список можно продолжать до полного охвата всех существующих и перспективных систем искусственного интеллекта; но не будем занимать наше время рутиной.


О чём нам говорит описание всего портфеля проблем в целом? Как общий результат осмысления первых 9-ти проблем, приходим к «ладони» важных гипотез:

Первое: сегодняшний уровень развития технологий ИИ требует от нас чёткого различения того ИИ, что «искусственный интеллект» и того ИИ, которой лишь «имитация интеллекта».

Второе: нельзя путать в своих ожиданиях искусственный интеллект и искусственное сознание; это и у человека разные сущности, а уж у искусственных систем - и подавно.

Третье: на текущем технологическом шаге позитивные перспективы - лишь у альянса искусственного интеллекта и человеческого; причём альянса сбалансированного.

Четвёртое: в злых руках и палка - оружие; без решения прикладных вопросов применения даже тех систем ИИ, что уже созданы, любая динамика развития в профессиональной ИИ-среде будет опасным самоедством, а само развитие приведёт нас в тупик.

Пятое: если мы всё-же мечтаем об эмпатии в исполнении ИИ, его суждениях и даже возможных отношениях с ним - нам надо будет пересмотреть основы; как говорил великий Михал Михалыч: «может, что-то в консерватории подправить».


    

Консерватория, аспирантура, мошенничество, афера, суд, Сибирь.

Консерватория, частные уроки, еще одни частные уроки, зубные протезы, золото, мебель, суд, Сибирь.

Консерватория, концертмейстерство, торговый техникум, зав. производством, икра, крабы, валюта, золото, суд, Сибирь.

Может, что-то в консерватории подправить?

М.М.Жванецкий

             

Важная оговорка: эта пятая позиция является одновременно и отражением десятой проблемы «10. Проблема «аппетита» в ИИ». А мы хотим пройти эту бифуркацию между искусственным интеллектом и искусственным сознанием? И в какую сторону мы хотим свернуть на этой развилке? Пока вроде все мечтают о сознании… Тогда продолжим.

           

Жил-был Сократ, который «я знаю, что ничего не знаю»; у него был ученик Платон, который написал «Государство» и основал первую Академию; а у него был ученик Аристотель, в своих «Аналитиках» изложил теорию логики, приведя её законы и силлогизмы. Эта самая логика, как и все физические представления Аристотеля, считались абсолютом почти две тысячи лет; даже постулат «природа не терпит пустоты». Галилей в Пизе пощипал авторитет, затем Торричелли, потом Паскаль; но логика Аристотеляоставалась основой научного мышления вплоть до XX века.

          

Считается, что и сегодня мы живём в аристотелевой логике. Правда это не правда.

       

В 1903-м годубританец Бертран Рассел открыл парадокс, показывающий что теория множеств в существовавшем виде приводит к противоречию. Это тот самый парадокс про брадобрея: «он бреет всякого, кто сам не бреется; и не бреет того, кто бреется сам; кто бреет брадобрея?»Строгая научная формулировка, конечно сложнее, но важно не это. Парадокс Рассела привёл к тяжёлому кризису математики, её расколу и резкому ускорению развития в трёх направлениях: интуиционизм, логицизм и формализм.

          

Интуиционисты во главе с голландцем Яном Брауэром критиковали классическую математику за её опору на парадоксальную теорию множеств; их новая математика рассматривала мир мысленных процессов как последовательность элементарных шагов. А ещё они исключили понятие бесконечности из науки. Как говорил Сигизмунд Врублевский «если тебе трудно сразу понять всю бесконечность, постарайся понять ее хотя бы наполовину».

           

Логицисты под водительством немца Готлоба Фрегеи самого Рассела обнаружили, что парадоксы типарасселовского связаны не столько с их математическим содержанием, сколько со свойствами языка. Итогом стало утверждение о сводимости математики к логике и знаменитый трёхтомник «Principia Mathematica». Цитируя Хуго Штейнхауса «из дома реальности легко забрести в лес математики, но лишь немногие способны вернуться обратно».

        

А вот формалистов собрал вокруг себя немец Давид Гильберт. И составчик-то был огого какой: Герман Вейль, Эммануил Ласкер, Пауль Бернайс, Вильгельм Аккерман и … Янош, он же Иоганн, он же Джон фон Нейман. Тот самый фон Нейман, который Манхэттенский проект, архитектура большинства современных компьютеров, теория операторов в квантовой механике, атомная энергетика, баллистические ракеты, теория игр, прогнозы погоды, концепция клеточных автоматов и ещё много чего такого. Возможно именно он внёс наибольший персональный вклад в то, что сделало Америку той Америкой, которая считает, что победила в Холодной войне. Больше Теслы, Оппенгеймера или Ферми.

        

Но вернёмся к Гильберту. Он провозгласил своей целью возвращение математике её строгости и начал разрабатывать математический аппарат формализма. В 1934-м и 1939-м годах вышли два знаменитых тома «Оснований математики» Гильберта и Бернайса, в которых были представлены аксиоматическая теория доказательств и основы современной математической логики. Но предшествовала им более ранняя публикация 1928 года «Основ теоретической логики», подготовленная в соавторстве с Вильгельмом Аккерманом. И вот там-то и случилось как раз то, что случилось - Гильберт отрихтовал Аристотеля; да ещё как: «…ставшее традиционным со времён Аристотеля истолкование положительных всеобщих предложений … не вполне согласуется с нашей интерпретацией формул…». А дальше ещё сильнее: «Наше отклонение от Аристотеля в этом пункте оправдывается потребностями математических применений логики, где класть в основу аристотелево понимание было бы нецелесообразно». И всё тут!

Это настолько сильно, что вы мне можете не поверить. Поэтому позволю себе привести фото из первого русского издания 1947 года.

 

        

А вот теперь катарсис - вот это самое отвергнутое положение «Все А суть В» у Аристотеля трёхзначно, а у Гильберта, и у всех нас с того момента - двухзначно. Именно тогда, там и так математика оторвалась от реальности. И именно эти две фразы двух немцев исторгли из нашей жизни её дух, заменив всеобщую формулу «да»/«нет»/«незнаю» на чёрно-белую «да»/«нет». А что, и правда - дырка в перфокарте или есть или её нет. Логично? Для дырки в перфокарте - вполне. А для жизни? Солнце на небе - день; солнце не на небе - ночь. А, извиняюсь, где же все наши восхитительные восходы и романтические закаты? Прошлое - то что было, будущее - то что ещё не было; а, стесняюсь спросить, настоящее-то где? «Всякая селёдка это рыба, но не всякая рыба селёдка». Где лосось, линь, треска, ледянка, наконец? Наша жизнь тринарна, никак не бинарна. Человек имеет право на ошибку и жизнь его не выбор между «да» и «нет». Бинарная жизнь абсурдна! И безобидна вся эта бинарность лишь на первый взгляд. Бивалентная логика - залог логического фатализма. И мы все, с лёгкой руки Гильберта и его ученика фон Неймана всё больше тонем в нём.

       

Лучше всех эту историю прокомментировал один из лучших математиков позднего СССР, автор задачки «о мятом рубле»  Владимир Игоревич АрнОльд; он говорил: «Гильберту принадлежит формальная точка зрения на математику как на дедуктивный вывод логических следствий из заданных аксиом. Эта точка зрения безусловно справедлива, но лишь в той мере, в какой поэзия сводится к последовательностям букв определенных алфавитов». Ни добавить, ни убавить!

       

Вернёмся к проблемам искусственного интеллекта. Имею гипотезу, что его мы сделать на сегодняшней технологической базе сможем; даже мощный; и даже суперинтеллект, если не испугаемся. Но понять эмоции человека по сообщениям в соцсетях или создать вирусное приложение, покоряющее мир остроумными шутками, системы ИИ не смогут до тех пор, пока они бинарны. Для решения сверхзадачи искусственного сознания нужна тринарная информатика. Или троичная. Или тернарная. Как ни назови - нужна информатика, основанная на действительно аристотелевской логике, а не на её гильбертовской модификации.           

Сразу скажу - тринарные компьютеры были в истории человечества. Первый и единственный серийный компьютер на живой трёхзначной логике назывался «Сетунь» и был создан в Советском Союзе гением. Звали его Николай Петрович Брусенцов; фронтовик, кавалер орденов Красной Звезды, Отечественной войны, Знак Почёта, За Заслуги перед Отечеством; был награждён медалями «За отвагу», «За взятие Кенигсберга», «За победу над Германией», «За доблестный труд», Большой золотой медалью ВДНХ.

 

           

Николай Петрович бессменно руководил лабораторией ЭВМ ВМК МГУ с 1958-го по 2014-й год. В 1959 году команда Брусенцова собрала и запустила опытный образец троичного компьютера «Сетунь», которых за 6 лет на Казанском заводе собрали 56 шт.

         

             

В 1970-м году, к столетию со дня рождения Ленина, вся страна выпускала юбилейные обновки. Николай Петрович не был исключением и выпустил стековую версию машины под названием «Сетунь-70», исполненную на новых элементах. После того, как власти запретили ему заниматься созданием ЭВМ, занялся прикладным применением вычислительных машин и создал образовательную систему «Наставник», которая в 1972-м году (!) на практике реализовала нейро-подход к обучению. В последние годы жизни Брусенцов занимался, в основном, теоретическими аспектами тринарной логики. 

       

Не могу даже предположить, каким был бы мир сегодня, если бы 60 лет назад команда Брусенцова вместо угнетения странными людьми из партийно-промышленной верхушки Госкомитета по радиоэлектронике получила бы их поддержку. Цитируя голландского компьютерщика Эдсгера Дейкстру, автора концепции структурного программирования, алгоритма кратчайшего пути на графе и ярого борца с инструкцией GoTo, «решение советского правительства о переходе советской промышленности к копированию модельного ряда IBM/360 стало величайшей победой Запада в Холодной войне».

      

Вообще жизнь Брусенцова и судьба его Сетуни достойны литературного описания; по жанру это был бы политический детектив с элементами триллера и, вполне возможно, шпионской фабулой.

         

Так или иначе, тринарная информатика умерла родами. Хотя и по сей день ею кто-то где-то слабенько занимается, больше в статусе периферической активности и исторических изысканий. В МГУ по-прежнему имеется лаборатория Брусенцова и даже называется она «лаборатория Троичной информатики». В США, со времён юного Билла Гейтса, писавшего, как известно, свои первые программы на американском аналоге «Сетуни» PDP-8, кто-то где-то потихоньку, но присматривает за тринарной платформой: эмуляторы кропают, элементы с промежуточными состояниями исследуют, даже логику тринарную тестируют на всяких несложных задачках. Ну и по миру активность не утихает уж совсем до нуля: израильтяне в Университете Бен-Гуриона, индусы в ряде бомбейских институтов, совсем изредка французы и т.д. Но всё это как-то слабенько, недорого, «по привычке».

    

Все эти сопричастные исследуют плюсы тринарности и её слабости; плюсы действительно есть, и слабостей действительно много. Не буду занимать внимание уважаемой аудитории; скажу лишь, что большинство плюсов фундаментальны, как в этом примере с базовыми записями числа 114, а большинство слабостей связаны с проблемой технической реализацией троичного состояния первичных элементов: с долговременной памятью вроде есть варианты, а с оперативной и первичными элементами процессора - это области развития.

       

Главная проблема в том, что никто и не собирается это развитие осуществлять. Несмотря на всякие вкусности тринарности типа бОльшей близости к основанию нормального логарифма или возможности записывать цвет одним тритом. Всем монстрам информатики хорошо живётся и в бинарном мире.

         

Но вернёмся к гипотезе о принципиальной невозможности создания искусственного разума, в отличие от искусственного интеллекта, в бинарной логике. Для этого важно напомнить, что был в истории человечества ещё один ярый сторонник тринарной логики. Мы все с вами его знаем и, почти уверен, любим. Это Чарльз Лутвайдж Доджсон. Более известный как Льюис Кэрролл. Примерно в то же время, когда  Джордж Буль выпустил свою работу «Математический анализ логики», Льюис Кэрролл выпустил свою работу «Символическая логика». И если первая стала знаменитой и превратилась, по сути, в манифест бинарности и культовый фундамент современной цифровой культуры, то вторая затерялась на фоне гениальных литературных  произведений своего автора и забылась. Хотя вполне могла стать манифестом тринарности.

       

Вот такая вот, как сказал бы Ельцин, «загогулина получается».

       

Заканчивая, перейду к прикладному аспекту.

Никто сейчас не будет инвестировать в тринарную технику сколько-то серьёзные деньги. Никто в мире. Но если мы проходим развилку «ИИ или ИС» в пользу ИС, то хотя бы потестировать тринарную парадигму надо. Как же быть? Что делать?

        

Во времена бума криптомайнинга выпускались ASIC-майнеры в форм-факторе «толстая флешка» со специальном чипом внутри, который единственное, что умел - вычислять хэш-суммы. Их по USB подключали к любому доступному вычислителю и «богатели». Вот это, например, продукция от китайского мирового лидера Bitmain с 2-мя чипами BM2.

        

Сейчас айти-хайп сместился в сторону машинного обучения, что тоже крайне ресурсоёмко. Строить нейрокомпьютеры в базе могут себе позволить очень немногие даже не люди, а корпорации - это безумно дорого. Всем остальным остаётся … правильно: форм-фактор «толстая флешка». Покупаешь, например, Intel Movidius, подключаешь через USB к машине с мощной видеокартой, грузишь библиотеку и вперёд. «А внутре у ней думатель»; копирайт братья Стругацкие, «Сказка о Тройке». В случае с Мовидиусом думатель, он же анализатор, он же неонка - нейросопроцессор. Конкретно - чип Myriad 2с приличным перфомансом в 100 гигафлопсов; можно сетку обучать и без интернета и без облаков.

           

Продолжая динамику хайпа, можно предположить, что и для «нового подхода к снаряду» в смысле тринарного компьютинга вполне окажется применим форм-фактор «толстая флешка», но на этот раз «неонкой» «внутре» вполне может оказаться эмулятор тринарной логики или тринатор. Почему нет? Давайте, в конце концов, не забывать, что фундаментально единственное, что делают компьютеры - это складывают. Сумму вычисляют. А все эти сложные вычисления, умные сервисы, фильмы, виртуальные пространства и, конечно же, шутки искусственного интеллекта - это просто правильно и очень сложно организованные операции суммирования. Тринарный эмулятор в этом залоге выглядит более чем решаемой задачей.

Убеждены, что такой подход вполне способен сдвинуть с места целый пласт современной информатики и дать хороший новый импульс развитию темы искусственного сознания и его младших родственников - искусственного интеллекта и имитатора интеллекта. Хотя вот как раз тут вполне можно по делу и без всякого сарказма употребить термин «младших гендеров». Эдакие «три лика ИИ» получаются.

<…>

дальнейшее содержание имеет административный характер, ввиду чего не публикуется