Размер шрифта:
Цвет сайта:
Изображения: Вкл.
ru en de zh fr

Платформа

Назад
РГСУ Life
Теоретические основы цифровых платформ будущего

Алиев Джомарт Фазылович

Первый проректор РГСУ, к.э.н., DBA, PhD

«Почему бы не сделать так, чтобы

на уроках истории на каверзные вопросы

о своей «Республике» отвечал сам Платон?»

(Рэй Брэдбери - Брайану Сибли, 1974 год)

Человечество гадало всегда; сколько себя помнит. Известно множество наскальных рисунков, изображающих, по мнению экспертов, процедуры гадания в пещерных ещё культурах. С приходом в нашу жизнь монотеизма, любое гадание было признано колдовством, а большинство гадательных практик были объявлены грешными и вредоносными. Гадать люди от этого не перестали, а их внутреннее язычество испытало на себе все эффекты сакрализации.

К концу XIX-го века светские векторы развития социумов усилились настолько, что феномен гадания возродился и легализовался в публично-общественном аспекте, а по ходу XX-го века - вообще стал акцептным в большинстве культур. С развитием математики возникло устойчивое стремление к моделированию, а по мере развития счётных технологий все гадательно-предсказательные ожидания человека стали построже и начали удовлетворяться уже как-бы на научной основе [1].

Общение с духами (предками, дУшами, образами) - это есть краеугольный камень в большинстве предикативных техник. Запросы в такой коммуникации весьма обширны и лежат, чаще всего, в интервале от чистого прагматизма до матримониальности. Для любого не бегущего от юмора человека, имеющего желание погрузиться в атмосферу и готового потратить полтора часа своей жизни «вскользь», рекомендуем прекрасный фильм Марка Захарова «Формула любви». Там этот компонент показан ярко, весело, талантливо и в меру познавательно.

Подтверждением вневременной фундаментальности запросов человека на знание «а что же там» служит факт неизменности интереса при эволюции коммуникационных платформ. Начиная с устных преданий, через культурно-письменные источники и иные художественные носители, мы в последние две декады добрались и до цифры. Теперь даже детские страшилки смигрировали в цифровой мир [2] (мы специально адресовались к доковидно-актуальному исследованию, поскольку те меры изоляции, что сложились в острой фазе пандемии, стали потом «чёрным лебедем» и привнесли серьёзную турбуленцию, осложнив объективность анализа данных до сомнительной).

Отчего же мы, сформулировав с известной претензией название работы, используем столь нелепую, на первый взгляд, подводку? Дело в том, что как бы мы ни наполняли смыслами сверхмодное нынче понятие «искусственный интеллект» (затронем эту тему ниже) и как бы мы ни выравнивали понимание функционального содержания систем ИИ (СИИ тоже коснёмся чуть позже), нам не избежать вопросов группы «зачем». А все они так или иначе связаны с двумя важнейшими потребительскими характеристиками СИИ, о которых часто забывают даже самые вовлечённые специалисты; а некоторые наши акторы, к сожалению, вообще их не принимают в расчёт.

Речь идёт о категориях востребованности и акцептности создаваемых систем. Надо сказать, что сегодня качественный ИИ-разработчик, какой бы сегмент он ни имел в фокусе своего внимания, точно знает «горячую пятёрку» теоретических подходов к разработке TDD, BDD, DDD, FDD, MDD (а если он ярый фанат agile, то ещё и PDD). Не отвлекаясь на школьный, по сути, контент, напомним, что во всех этих аббревиатурах средняя буква - от слова driven. Таким образом считается, что любой наш актор знает о привОдах достаточно, чтобы использовать их на практике. При этом существенная часть непосредственно девелопмента на ИИ-поляне визионарностью не отличается. И если для систем «искусственного интеллекта» такого взгляда на конструирование смыслов может хватать, то при взгляде на цифровые платформы, этих driven’ов уже мало. Там работают другие конструкты: product-driven и market-driven.

Это уже не технологические, но маркетинговые концепции родом из экономикс (в политэкономии ещё должна быть strategy-driven, но сама политэкономия сейчас в загоне). Они много чем различаются, однако нам сейчас важно одна такая развилка: по PD мы продаём то, что умеем производить, а по MD мы производим (ну и продаём, конечно же) то, что ожидает рынок. В применении к большинству активностей в ИИ-сегменте, мы «PD» (в смысле «не MD»). Это весьма неочевидный стейтмент; более того, если оставаться в своих оценочных суждениях на уровне ИИ-систем, так он просто ошибочный. Но на платформенном уровне это именно так - мы пока не MD; уж слишком часто приходится слышать «технология может вот это», «пока мы умеем вот так», «наши возможности позволяют вот такое» и т.д. То, что мы пока PD - вообще не приговор: как бы ни надували щёки адепты «невидимой руки», а PD в жизни гораздо больше, чем MD; и в абсолютном, и в денежном выражении. Просто в прорывах, а именно так сегодня позиционируется вся ИИ-тематика, необходимо ясно понимать, что уже скоро мы реально сможем и чего уже можно начинать хотеть.

Клиентские ожидания, при взгляде с платформы на суть создаваемых в ИИ-проектах качеств, сводятся к 5-ти неодновременным и неоднообъёмным группам:

  • сверхмощный «калькулятор/помощник» в рутине и/или отчуждаемых процедурах; предметные ИИ-области тут разнообразны, универсальны, очень востребованы;
  • сверхофицер с известными качествами, но недостижимым для хьюман-формы перфомансом; важен запрос на качество, надёжность, человеконезависимость;
  • коммуникационный компаньон с плановыми достоинствами, но без недостатков; последняя группа из субститутных ожиданий («как человек, но только лучше»);
  • некая (-ие) модель (-ли) цифровой эволюции вплоть до условной «вечности» для отдельных проектов; группа запросов на создание «ранее несуществовавшего»;
  • неосознаваемая пока «сущность новых качеств» как результат безудержного научного поиска и экспериментирования в открытых рамках «а вдруг».

Именно из такой дескрипции ИИ-аппетитов происходит странное, на первый взгляд, обнаучивание гадательных запросов и практик. А ничего странного, на самом деле, и нет: гносеологически, разницы между «black-box» предикциями от хорошо обученной сетки и гаданием на кофейной гуще почти нет. И то, и это основано на убеждённости в справедливости исходных посылок, объективности базовых словариков и навыках интерпретации. Просто в одном случае мы почему-то постулируем истинность нашего модельного представления, а во втором - осуждаем его псевдонаучность.

Раньше было очень модно давать две почти одинаковые картинки и задание «найдите N отличий»; если так же изобразить data mining и хрустальный шар, значение N будет маленьким. В предложенной же выше группировке, сверхбыстрая, универсальная, качественная и всегда доступная ИИ-гадалка может быть востребована как запрос в любой из первых трёх групп. Если же вспомнить, что футурологи и прогносты всё чаще начинают получать благосклонность научной общественности (ещё бы - они же экстраполируют, используют метод Дельфи, строят подобия и проводят симуляции), то и наша подводка к теоретическим основам цифровых платформ перестаёт быть   столь неуклюжей. Мы, по крайней мере, очень на это рассчитываем.

Чтобы завершить тему гадания (а к общению с духами мы ещё вернёмся), признаем, что мы вовсе не противники моделирования; более того, мы его ярые сторонники. И Фарадей использовал стохастику, да и метод «научного тыка» бывает эффективен. Просто нам хочется избежать ярлыков несимметричного оптимизма и, одновременно с эти, проявить больше описательной объективности в отношении того, чего следует, а чего не надо ждать от ИИ. Ведь, по большому счёту, последние две группы про то, что «искусственный интеллект» нам несёт, в то время, как первые три - про то, что он нам приносит. Это отнюдь не грамматика; это семантика. Как говорилось в одной красивой мелодраме «это просто остров…; романтику нужно с собой привозить».

И ещё нужно, видимо, сразу объяснить, почему мы так педантично закавычиваем базовое выражение, когда хайп требует для него обиходности. Дело в том, что если предложенный список ожиданий «под MD» цифровых платформ корректен, то из двух слов выражения оба являются вариативами выбора. И слово «искусственный» явно неполное, поскольку есть важнейшие теоретические разницы между «естественным», «искусственным» и «синтетическим»; и слово «интеллект» трактуемо как теоретически различные «интеллект», «сознание» и «разум». Выбор именно этой пары (ИИ) из 9-ти потенциальных вариантов видится отчасти произвольным. Тем более, что существует убедительная школа сторонников замены смысла первой буквы с «искусственный» на «имитируемый», что ещё поднимает вариативность. И это пока мы не видим нужным даже пытаться институциализировать персональные интенции вроде прогнозов Рея Курцвайля на обособление платформ логического интеллекта и эмоционального.

У каждого из 12-ти потенциалов свой, с позволения сказать, комплект теоретических основ, различающихся где деталями, а где и основаниями. Скажем, именно теорбаза последнего, имитационного варианта, уже даже на складывающемся сегодня уровне развития технологий (тем более - на прогнозируемом в ближайшие 5..7 лет; прогноз как форма гадания), делает вынесенное в эпиграф пожелание знаменитого фантаста уже не просто художественной красивостью; под неким углом зрения оно начинает смотреться как вполне себе достижимая цель. Уже сегодня можно создать цифровой образ Платона (и даже не один), имитировать его интеллект (тоже в ассортименте), «пригласить» одного из величайших мыслителей в истории человечества на работу в какой-нибудь университет и провести великие диалоги непосредственно с автором.

И если некий журналист назовёт получившееся у нас «искусственным интеллектом», в этом не будет явной грубой ошибки. Напомним определение, принятое в экспертной группе по разработке отечественной ИИ-стратегии: «Искусственный Интеллект (ИИ) – комплекс технологических и программных решений, приводящих к результату, аналогичному интеллектуальной деятельности человека, и используемых для решения прикладных задач с помощью систем компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, рекомендательных систем и интеллектуальных систем поддержки принятия решений, а также систем, основанных на перспективных методах». Но мы принимаем её с уместной тут оговоркой главного из «дартмутских отцов» Джона Маккарти: «…под интеллектом в пределах этой науки понимается только вычислительная составляющая способности достигать целей…».

Качество платонистики, которую будет производить получившаяся сущность, сначала вряд ли будет сильно отличаться от качества юмора, извлеченного Janelle Shane пару лет назад из самой продвинутой версии DaVinci от чемпионской GPT-3; оцените сами - «из старенького, но любимого: вылейте горячий кофе себе на колени». Дальше можно будет это качество улучшать, разрабатывая новые алгоритмы обучения и создавая под них библиотечные охваты, скажем, Сократа-учителя и/или Аристотеля-ученика.

А можно вместо Платона создать Нострадамуса. Тогда вопрос качества отработки будет менее острым, поскольку семиотичность продуктов («живого» и цифрового) будет примерно одинакова в части их семантики и/или прагматики: как реального мыслителя, так и его имитацию, понять будет одинаково непросто.

Для реинкарнации Платона в ИИ можно было бы предпринять попытку в рамках какого-то из семи исторически самостоятельных треков теории (по возникновению): нейронные сети, символьный интеллект, эволюционное кодирование, генетические алгоритмы, экспертные системы, нейроэволюционный подход и машинное обучение. Конкретно в случае Платона, видимо лучше остальных подошла бы рамка экспертных систем; в 1980-х, на заре российских (ещё советских) проектов создания цифровых помощников интеллекту, ЭС-концепция была базовой. Её генеральной задумкой в то время было создание новых знаний на базе осознанных из существующих, а все ЭС-конструкторы верили, что для успеха достаточно грамотно и пОлно декомпозировать портфель каких-то специфических знаний, превратив их в набор правил вида «если-то-иначе». То, что сегодня мы зовём перфомансом, в те времена было настолько слабеньким, что специалисты старались проходить логические развилки, положенные в основу подхода, наиболее интенсивным и творческим способом. Что-то получалось и даже как-то работало; одному из авторов довелось поучаствовать в создании такой системы для союзного МИДа, другому - в проекте системы <…вставить…>.

Сегодня, по ряду причин весьма неочевидного характера, ЭС-концепция находится в глубоком кризисе. Пятёркой главных проблем возобновления интереса к экспертным системам мы видим человеко-машинный интерфейс, согласование с реляционными моделями данных, креативную деградацию, лень и деньги. Лучше всего это поймут те акторы, что считают С.Н.Корсакова основоположником ЭС, верят в преимущество ассемблера, не хотят точки Омега, опасаются технологической сингулярности и обоснованно считают, что раньше мы хотели созидателей, а теперь - потребителей.

Как на один из лучших примеров прикладной реализации экспертного подхода можем сослаться на версию OpenCyc 2006-го года, сайк-онтология которой содержит сотни тысяч выражений и миллионы утверждений, а база знаний доступно охватывает 47 тыс. концепций и 306 тыс. фактов, открытых для обработки и использования. И если взгляды западных специалистов на эту практику ЭС-реализации чаще скептичны, то у нас перспективы сайк-платформы, по крайней мере, обсуждаются [3].

Ещё один хороший пример, но уже гибридной практики - ПАК IBM Watson, с сеткой, обученной на онкологию. Он комбинирует классические сегодня подходы машинного обучения и распределённых вычислений с интерфейсом естественного языка и обращениями к экспертным базам знаний. Его эффективность - 93% совпадений по протоколам лечения 13-ти разновидностей рака со скриптами лучших американских врачей. Но его (не-)востребованность явно обусловлена доминирующим неприятием субъективного свойства. И это крайне важный, образно говоря, заусенец, который игнорировать не получится, а зашлифовать - будет поворотом не туда. Мы имеем в виду проблему ИИ-доверия; причём в комплексном смысле.

По замыслу, мы планировали кратко обозреть все теоретические залоги основных ИИ-школ; возможно, это будет сделано позже. Сейчас же отнесёмся к ряду проблем, имея в виду их одинаковую важность в системах любого ИИ-класса из потенциальной дюжины; причём созданных под любое ИИ-ожидание из пятёрки групп и на основе любой из семи ИИ-теорий. Ряд проблем, из которых кейс доверия первый, но далеко не единственный, актуален для большинства из них; но, к сожалению, почти во всех реальных случаях эти проблемы упускаются из фокуса внимания.

Конечно же, реальны далеко не все из потенциальных сегодня 420 видов цифровых сущностей, как-то соотносимых с озвучкой понятия «искусственный интеллект». Во-первых потому, что не все 60 цифровых типов, что имеют трейс (прослеживаемую связь) со смыслами ИИ-понятия (остаются после прямого изъятия из группировочных категорий технологических аспектов), даже теоретически создаваемы. Например, есть сомнения в смысле создания «сущности новых качеств» в любой «естественной» версии. Во-вторых, не все из имеющих смысл - создаваемы в текущей парадигме; мы, например, убеждены, что любые конструкты цифровых «сознаний» без возврата к исходной тринарной (аристотелевой) логике будут лишь умозрительными гипотезами. А в-третьих, даже сущности, имеющие смысл и в принципе создаваемые, могут иметь (как минимум проявлять) некоторые содержательные особенности психологического, этического и юридического характера, приводящие к необходимости их проектных ограничений. Доверие - как раз из числа таких особенностей/ограничений.

Отшагнём чуть-чуть назад. Считается, что ещё семь лет назад ИИ-проект перешагнул через планку Манхэттенского, в смысле масштаба. Масштаб в том обществе всегда про деньги; так вот затраты на ИИ (консервативно) ещё в 2017г. достигли 39 млрд.$, в то время как весь оружейно-атомный проект стоил, в сопоставимых ценах, 37 млрд.$. Судя же по свежим данным, сегодня американский ИИ-проект выбился в абсолютные чемпионы, перешагнув и через лунно-космический Аполлон с его 139 млрд.$.

Хотя сколько в этих метриках размаха реальных инвестиций, сколько спекулятивного капитала, а сколько вообще технических транзакций, сказать пока (или уже?) сложно. Понимая, что пусть даже деньги, вложенные в проект бомбы, и в лунную программу, таки были реально в эти проекты вложены, отрицать грандиозность всего ИИ-проекта всё же нельзя; кто-бы/что-бы под ним ни понимал и как-бы странно ни финансировал. Но это лишь отягощает проблему доверия, делая её потенциально катастрофической. На волне очень специфического энтузиазма и где-то уникальной привлекательности, но не потренировавшись «на кошках» и не набивши шишек, ИИ-продукты раскрывают перед нами не только рамку созидания шире, чем раскрыл Аполлон; но и всю бездну деструктива по рискам глубже, чем исполнили Оппенгеймер с Гровсом.

Уже сегодня «искусственным интеллектом» называют сотни приложений. И хотя бОльшая их часть ни «искусственным», ни «интеллектом» не являются, имея в виду уровень складывающейся конкурентности (чего очевидно не было ни в атомном, ни в лунном проектах), число их прикладных реализаций уже видится в интервале первых десятков тысяч. Некоторые из них - просто монстры. И вся эта масса, что местами объективно сложнА для рядового осознания, уже сегодня введена в использование; причём не пророщена изнутри, пусть даже с имитацией со-творчества, а загружена сверху, в императивном порядке, порою - просто беспардонно.

Авторы в обыденной жизни пользуются различными средствами коммуникации: один из нас использует смартфон, другой пользуется кнопочным аппаратом; как привыкли. Тот вот, смартфонец, пару раз в год, испытывает серьёзные непозитивные эмоции, когда вендор аппарата начинает удалённо программно снижать гаджет-перфоманс, создавая всяческие огрехи в его работе (так, видимо, идёт побуждение к покупке новых моделей устройства). Длится такой дистарб-режим обычно пару недель, после чего баги/глюки прекращаются, а продуктивность возвращается, хотя и не на 100%.

Он (автор со смартфоном) считает такие побуждения неправомочными и выходящими за пределы приемлемости. А ведь это вовсе не ИИ; и даже не его преддверие; это просто кривоватый цифровой диктат от офицеров маркетинга, плохо знающих своих клиентов. Или же, что много хуже (но, к сожалению, вероятнее), знающих их хорошо, но уверенных, что вендор вправе, а клиент всё равно будет вынужден.

Когда такими механизмами пользуется государство (вводя, например, некий сервис, но только на портале госуслуг), то ни доверия, ни приятия подобного рода давления, да ещё и вместе с дискриминацией (в данном случае цифровой), ожидать не стОит. Но когда подобное позволяют себе чужие частники, фронда неизбежна. Если же мы себе представим не просто факт вмешательства со стороны в динамику или предпочтения человека, но ещё и то, что такое вмешательство будет «умным», настроенным именно на конкретного человека, то как ни называй это контекстной адаптацией, а это будет манипуляция. И скорее всего, просто снижением планки доверия тут уж не обойдётся; любой эе кризис доверия - потенциальный источник активного сопротивления.

Целостный человек с оформленным психологическим профилем, ан-масс является социальной сущностью. В нём глубинно, на уровне базовых привязок безопасности, заложен фильтр недоверия тому, кого он не знает и чего он не понимает. Потенциал приятия неизвестного существует; но, как правило, он трансцендентен по характеру, и развит далеко не у всех. У тех же людей, которым он всё-таки присущ, проявляется его компенсация, причём чаще - в области религиозности; либо в ином чувственном и/или иррациональном. Но мы же не ожидаем, что ИИ-доверие заместит собой веру во внутреннем мире человека? Потому, что другого места там нет; нет - для текущей навязываемой, ордерной, бескомпромиссной ИИ-культуры с закрытым содержанием и безымянными создателями. Откровенно говоря, совсем не хотелось бы жить в том мире, где (если) будет существовать понятие «ИИ-экскомьюникадо».

Мы правда ждём ИИ-приязни в ситуациях, когда «наш ИИ посчитал Вас недостаточно платёжеспособным для продолжения ипотеки» или «на основе рекомендации нашего ИИ мы задерживаем Вас на 48 часов для проверки на склонность к насилию»? А ведь это вполне реальные кейсы последнего года. Занимаясь ИИ-проектами на практике, и говоря о теоретических основах, мы чаще касаемся аппаратных теорий, алгоритмики и широкой математики. И это правильно. Но когда мы затрагиваем теорию цифровых платформ, ограничиваться только этой троицей будет большой ошибкой. Психология акцептности - неотъемлемый сегмент теории цифровых платформ; причём в широком смысловом поле, под причинно-следственной лупой и методически интегральный.

Кстати, возвращаясь к живущему в IBM’ском облаке доктору Ватсону: он страдает не по тем причинам, что мы, в смысле акцептности, уже обсудили выше. Источник его проблем (если они вообще его беспокоят), это современные луддиты. Их много, они очень авторитетны, и встречаются почти на всех предметных ИИ-полянах. Крайне важная содержательная тема, разработка теоретических аспектов которой ещё очень далека от завершения; не говоря уже о их практическом применении.

Говоря о привОдах ИИ-разработчиков, мы уже применили одну бизнес-концепцию для того, чтобы «подкрасить» смыслы при смене фокуса с ИИ-систем на цифровые платформы. Давайте попробуем повторить попытку сращивания технологий и бизнеса. Осознавая значимость психологии акцептности для теории цифровых платформ в целом, и темы организации доверия в частности, нужно задаться вопросом «а всегда ли и всем ли это необходимо?». Вопрос содержит в себе и ответ - не всегда и не всем.

Ну действительно, зачем любому человеку знать, какой версией какого ИИ оснащены используемые армией боеголовки? Тем паче понимать, и уж в пределе доверять. А зачем, скажем, нужны детали, доверие и профиль акцептности для ИИ-комплекса поддержки логистического функционала какой-нибудь службы доставок? Вполне же достаточно, если она будет исполнять обещанное. А вот для ИИ-системы назначения социальных выплат, при их вариативности, доверие клиента необходимо. Доверие и, хотя бы «крупным мазком», понимание. Причём доверие нужно не только от клиентов, но и от других стейкхолдеров; социальных, и казначейских, и банковских работников. К последней группе господ мы ещё вернёмся, а пока очень простое общее правило: чем дальше ЦКС (целевой клиентский сегмент) ИИ-продукта от государства и чем он ближе к конечному потребителю, тем шире уровень требований к его акцептности. На уровне B2G ИИ-акцептность максимальна по глубине, но охватывает лишь экспертов; на B2B - возможны, как говорится, варианты; а на B2C нужен широкий охват, глубина без деталей, и максимально достижимый уровень доверия. Хорошо, если для B2C-ИИ   будет организован режим вовлечения каких-то общественных экспертов или иных авторитетных третьих лиц. Но делать это надо с учётом деталей того, какие в ЦКСах сложились базовые профили обобщённого и институционального доверия.

Сообщество по умолчанию считает, что практически идеальным предметным полем для развития ИИ-систем является банкинг [4]. В некотором смысле это действительно так, если говорить о скоринге, борьбе с мошенничеством и, отчасти, коллекторинге [5]. Тут, правда, имеется два весьма важных нюанса: с каждым днём возникает всё больше вопросов к самому факту существования банков и их социальной роли как институтов стабильности и развития. И второй, уже более общего свойства: фокусы внимания содержательно дополняют проблему ИИ-акцептности ещё и проблемами правовой защиты [6] и этического выбора [7].

Даже очень солидные и далёкие от информационных технологий иностранцы сводят этическую проблематику ИИ к развилке «жизнь-смерть» и требуют, чтобы никакие решения по этой развилке не делегировались машинам, ожидая трансформации сего постулата в один из принципов права [8]. Для начала весьма неплохо; да ещё и связь между этикой и правом возникает, что в наше время редкость и действительно может оказаться полезным [9]. Но как быть с другими этическими выборами? А с ними всё намного более вязко. И на международном, и на отечественном уровне.

Азиломарские принципы вроде бы дали некую динамику в этой части регулирования, и уже через 2 года с момента их выпуска, в 2019, «этический ландшафт» ИИ содержал 84 документа начального качества с продвижением прозрачности, справедливости, конфиденциальности и ответственности [10]. Но дальше всё пошло по традиционному сценарию, и ещё через 2 года, уже в 2021-ом, ЮНЕСКО, вместо формулирования и решения реальных этико-правовых проблем, в проекте своих рекомендаций по ИИ-этике озаботилось её политическими рамками, надзором за ИИ-влиянием на права меньшинств, механизмами широких международных дискуссий, антимонопольным регулированием и мерами по расследованию причиняемого ИИ-вреда [11].

В нашей реальности ситуация развивалась мягче, но по схожему сценарию; сначала Президент РФ предложил «подумать над формированием свода этических правил взаимодействия человека с искусственным интеллектом» (2019); затем он же призвал выработать «морально-нравственный кодекс работы» ИИ (2020). И уже в 2021 году главные российские ИИ-акторы провели Международный форум «Этика ИИ: начало доверия», на котором приняли Национальный кодекс этики в сфере искусственного интеллекта. В кодексе много чего про правдивость, надёжность, безопасность и даже беспристрастность; а основным этическим принципом отечественных ИИ объявлен «человеко-ориентированный и гуманистический» подход. Мы многого в кодексе не поняли; но может быть, если СБЕР, один из столпов отечественного ИИ, на основе своего второго этического принципа («Explainable») пояснит, как в его четвёртый ИИ-принцип («Responsible») [12] одновременно вписывается и повышение скоринг-баллов для кредитных заявок от женатых людей, и понижение этих же баллов для людей с детьми — нам станет понятнее. А то какая-то своеобразная этика выходит; да и вклад в российскую демографию получается для банковского лидера страны неожиданным.

Что касается правовых ИИ-аспектов, то подавляющее большинство стейкхолдеров ясно артикулирует «мягкое право» как перспективную базу для регулирования ИИ в правовых аспектах [13]. С учётом масштабов отрасли, потенциального размера её доходов и объёма властных перспектив, мы сомневаемся, что механизмы портфеля рекомендаций, пусть даже с инструментами гражданского надзора, будут работать. Перспективы популярных в профессиональном сообществе ожиданий ключевой роли для практик стандартизации и сертификации [14] выглядят немного лучше; но средств эффективного контроля их применения потенциальными интересантами пока чётко не проглядывается. Это означает, что мы завершили оборот, вернувшись к тому, с чего и начинали - к проблеме доверия. Но теперь мы уже на новом, более информированном уровне; что позволяет нам перейти к главной на сегодня интегральной ИИ-проблеме для большинства ИИ-систем в платформенном аспекте. Это проблема компетентного и/или квалифицированного заказчика в его оптимальной роли.

И снова чуть отшагнём. «Моментальный снимок» 2021 года в мире ИИ таков: частные инвестиции за год выросли вдвое и составили ~93,5 млрд.$ (что хорошо), при этом за год закрылось более 200 сделок по ИИ-стартапам (что чуть напрягает). Средняя цена роботизированных систем снизилась за пять лет вдвое, а Китай стал лидером по цитируемым публикациям в рецензируемых научных журналах в верхней части Q1. ИИ-модели от Baidu, Google и Microsoft превзошли среднего человека в понимании текстов, а блок Copilot от Microsoft начал успешно ассистировать в написании кода.

Отдельно новости от OpenAI: их ИИ-модель DALLE-E задала новый тренд «text-to-image», а чат-бот ChatGPT всё-таки научился шутить. И теперь консолидированный прогноз (не зря же мы с гадания начали), что в ИИ-мире будет доминировать от 5-ти до 10-ти крупнейших корпораций выглядит более обоснованным. Уверены, что OpenAI точно будет в их числе, потому что уже в 2022 году их ИИ-продукты успешно сдали экзамены по юриспруденции и бизнес-менеджменту в хороших американских вузах, и умудрились получить бан от ряда американских, французских и британских платформ по самым разным основаниям.

Для чего мы нанесли эту пару мазков? Для того, чтобы узнать о квалифицированном заказчике у всех упомянутых звёзд; в смысле - а кто у них выступал в этой роли? Ответ формулируется по разному, но по сути он един: заказчиком был разработчик. Т.е. прямо классическая PD. Давайте для целостности посмотрим и на отечественный рынок в том же 2021-ом году.

На конец 2021 ИИ-рынок в России имел ёмкость 550 млрд.₽ (с бюджетным объёмом финансирования менее 1%) с субъектным покрытием 509 компаний и численностью молодых специалистов 2021-го года выпуска ~3700 чел. Российское ИИ-сообщество вышло на 17-е место в мире по количеству ИИ-публикаций в журналах. Стартовал федеральный проект с ожидаемым объёмом финансирования 24,6 млрд.₽ за 5 лет. Яндекс запустил 3 новых суперкомпьютера (19, 36 и 40 места в мировом топ-500, в СБЕРе обучили мультимодальную модель модель ruDALL-E Kandinsky (XXL), а в МФТИ - модель анализа текстов DeepPavlov. Не плохой, в общем, год. И тоже чистая PD: подавляющее большинство заказов на разработку - от самих разработчиков.

На прошлом шаге развития программной индустрии уже предпринимались попытки скрестить общее проектное управление в стиле PMBoK со сложившимися практиками информационного проектирования, системного конструирования и прикладного кодинга; не очень, надо признать, успешно. А если мы вспомним, что agile-подход прямо родился в недрах программистского сообщества именно как ответ на методические вызовы управленческого характера, то получим основания предположить, что созидательно сверхсложные ИИ-продукты по-иному, вероятно, и не создать. Ведь даже в лучших проявлениях системного взгляда на ИИ-заказ ни смежные области постановки задачи, ни соответствующие теоретические основы, даже не упоминаются [15].

Однако тогда мы рискуем тем, что все наши системы ИИ, даже в случае успеха, будут попадать в ситуации, подобные автомобильным автопилотам: реально они давно разработаны и потенциально очень полезны, но на практике не используются и той самой пользы не приносят. И вряд ли принесут в ближайшее время - пока особых перспектив в установлении виновности и мер ответственности за ДТП с участием ИИ-пилотов не просматривается; тупик’с. Отсутствие или наше недолжное внимание к психологии, этике и правовым ИИ-аспектам создаёт всем гораздо более запутанные ситуации, чем выяснение причин отказа круиз-контроля в резонансном инциденте с принудительной 5-ти часовой поездкой некоего мистера Луо в китайской провинции Хунань на автомобиле Haval H6 в декабре прошлого года.

Таких «вторичных запутанностей» мы уже сегодня имеем достаточно много; а по мере расширения ИИ-сфер и достижения локальных ИИ-успехов их будет становиться ещё больше. Например, тема ИИ-криминала. В последние пару лет мы стали отмечать проскальзывающие иногда в сообществе и на мероприятиях комментарии от ряда авторитетных, в общем-то, ИИ-специалистов, с теми смыслами, что утечки данных и большинство противоправных цифровых действий - это не их проблемы, а задачи для правоохранителей и силовых институтов. Это вызывает серьёзное удивление, а в ряде случаев - даже возмущение; скажем, уже мало кто сомневается, что наиболее продуктивные современные фишинговые системы имеют эффективные ИИ-движки.

Большинство дверей в жизни, как известно, открывается в обе стороны. Если мы инвестируем ресурс в ИИ-системы оперативного наблюдения, исследований и сбора доказательств [16], то почему мы не обязаны допускать, что злоумышленники делают то же самое, но совсем не с благородными целями [17]? И если ценностные противоречия и циничная конкурентная борьба снова создают вектора враждебности, то почему мы не обязаны признавать, что понимание благородства у таких противостоящих сторон совершенно разное? А допуская и признавая это, разве не должны мы искать пути и схемы митигации связанных рисков, максимально широко наполняя наши цифровую культуру, цифровую профилактику, цифровую гигиену [18]? В пределе, создавая любой ИИ-продукт, мы обязаны интегрировать в него стоп-закладки; а документируя, мы должны создавать и руководство по «защите от». Но ничего этого не происходит.

Этакое «цифровое язычество» получается: сегодня демон моему врагу навредил; так он и не демон вовсе, а достойный уважения природный феномен или образ. Очень опасное направление мысли: на ИИ-поляне большинства границ в нашем понимании нет уже сейчас; и определённо их не будет и потом. То есть границы, вероятно есть, и будут; вот только какие зоны они огораживают, чьи интересы обороняют? И от кого? А если принять во-внимание темпы, с которыми развивается сегодня концепция ИИ-сервисности (AIaaS) [19], то развитийный контроль технологий можно уверенно считать упущенным. Из частных бесед с экспертами оперативных сообществ (тех самых, на которых сегодня пытаются сваливать создаваемую ими головную боль ИИ-акторы) следует, что появление и развитие дигитального общества привело к невиданному и не предполагаемому ранее потрясению основ. Взрывным образом уже разрушились многие базовые концепты, расширились границы допустимого; и полностью овладеть ситуацией на новом технологическом витке мы так и не смогли.

С мировоззренческой точки зрения мы вошли в этап общественного развития (?), что вполне отвечает отдельным признакам «цифровой анархии» [20]. С этим точно ничего нельзя поделать в смысле воспрепятствовать; можно только научится жить с этим, срочно создавая и развивая междисциплинарную теорию если и не контроля, то уж всяко управления; желательно, не реактивного, а основанного на упреждении. И в такое состояние нас привела цифровая революция, по сути, лишь форматов/каналов. Что будет при столь же широком успехе революции обработки/содержания? Как бы не «цифровая онкология» [21]… Если этот наш прогноз (снова к вопросу о гаданиях) представляется кому-то мрачноватым, можно познакомиться со свежей историей успешной защиты ChatGPT-диплома студентом РГГУ Александром Жаданом (https://dzen.ru/a/Y9p1F1v0pl-oCXgT), сделать суждение и подобрать более уместный термин.

Справедливо ли предположение, что ИИ-индустрия развивается на базе самозаказа, что в отсутствие внимания к обозначенным выше проблемам несёт серьёзные риски? Достоверно мы этого сейчас не знаем; но с учётом темпов развития, точно узнаем в ближайшие 7..10 лет. А возможно, что значимость расширения теоретической базы для ИИ-успехов с охватом целого ряда смежных дисциплин представляется нам излишне завышенной? Не думаем. По итогу состоявшейся в ноябре прошлого года конференции «Путешествие в мир искусственного интеллекта», Президент утвердил перечень своих поручений. Несмотря на то, что как минимум четверть из них - это меры администрирования, ровно половина поручений (16) так или иначе коснулись смежных знаниевых и компетентностных областей, а в 4-х была прямо затронута проблема квалифицированного заказа. Два из них мы позволим себе процитировать:

  • Пр-172, п.1 б), где Премьер-министру поручается до лета текущего года обеспечить «внесение в образовательные программы высшего образования и программы повышения квалификации изменений, направленных на повышение уровня компетенций в сфере искусственного интеллекта специалистов ключевых отраслей экономики и социальной сферы, специалистов по государственному и муниципальному управлению».
  • Пр-172, п.2 а)-1, где Правительству поручается до осени обеспечить «изменение установленных требований и норм, препятствующих внедрению технологий искусственного интеллекта в отраслях экономики и социальной сферы…».

Первое демонстрирует системность ожиданий высшего политического руководства, а второе интересно ещё и тем, что мы затронули чуть выше, говоря про ИИ-границы. В третий раз «по ходу пьесы» отшагнём назад; на этот раз - для глубины.

Что представляет сегодня опцию интереса, так это относительная «тишина в эфире». Ещё 5 лет назад ИИ-новостной фон был обширен, богат практическими новациями и очень интенсивен в теоретико-дискуссионном плане. Но с весны 2020, всего-то за квартал, публичное научно-информационное пространство словно бы съёжилось, а его содержательный профиль качественно очень изменился. Число публикаций не упало; скорее даже наоборот. Но вот их содержание перестало быть прорывным и многообещающим. Интенсивный информационный поток об огромном количестве кому-то важных деталей, нюансы отдельных технических решений и схемы проектных реализаций по-прежнему и регулярно производятся массой самых разных групп и коллективов исследователей. Мощнее, лучше и богаче; но «мяса» больше не видно.

Очевидных причин такого изменения, отнюдь не косметического, мы не видим. Вряд ли мы в фазе диссипации; оснований для теоретической стагнации тоже немного; не выдерживают никакой критики и любимые многими ссылки на ковид-режим. Можно, конечно предположить, что сущностных публикаций нет, поскольку нет успехов или хотя бы продвижений. Но прикладные демонстрации и финансовая фактура рынка нарастают такими темпами, что такое предположение кажется необоснованным. Эта не очень понятная подоплёка адресует нас на 80+ лет назад, когда за несколько лет до Манхэттенского успеха, в профессиональном информационном пространстве тоже наступило подобное молчание. Конечно, ту историю нужно индуцировать на день сегодняшний с серьёзной поправкой на иные времена, но тогда тоже ничего нового о теории, базовых конструкциях, материаловедении и основных инженерных решениях в общедоступную среду не поступало. И родились Штучка, Малыш и Толстяк.

Даже если мы ошибаемся (а мы на это очень надеемся) и в ИИ-мире просто «что-то пошло не так», к проблеме регулирования ИИ-индустрии, как национального, так и международного уровней, уже пора присмотреться повнимательнее. Каким оно будет - сегодня не скажет никто. Будет это что-то вроде ультраМАГАТЭ с советом «мудрых» и их сверхосторожностью; или что-то типа суперЦЕРНа с пытливыми учёными под внимательным присмотром непубличных политиков; или же вообще это будет группа гиперкорпораций, во всём разбирающихся и везде сующихся (а этого варианта нам, похоже, уже по-любому не избежать). Главное, чтобы в порядке платы за допущенную анархию нам не пришлось на практике знакомиться с моделями Олдоса Хаксли и/или Джорджа Оруэлла. Связь же регулятора (любого) с заказчиком (квалифицированным) столь нативна и очевидна, что на неё и отвлекаться не стОит.

Как уже было сказано, половина поручений касаются неайтишных ИИ-дисциплин. Мы провели контент-анализ тезисов исходных сообщений, которые, как представляется, и привели к большинству актуальных порученческих формулировок. Как следствие, затронем, буквально по касательной, ещё четыре ИИ-аспекта, внимание к которым с одной стороны необходимо, а с другой стороны самым определённым образом будет расширять как содержание [22], так и коннотацию теоретических основ большинства цифровых платформ будущего; в скобках приводятся иллюстративные примеры.

Элементная база. Перспективы развития на иных принципах (квантовый компьютинг), определённое понимание завершённости некоторых текущих баз (все маркетинговые танцы вокруг проектных норм и 20-нм барьера) и некоторые лакуны, часть из которых пока закрывать сложно (тринарные память и процессоры).

«Косые» треки. Популярная практика старта ИИ-проекта в одной типо-группе с рядом вертикальных ап- и даунгрейдов внутри предметной области и явных горизонтальных миграций между областями в ходе ИИ-проекта; финиш с выпуском ИИ-продукта, что отличается от стартовой рамки в большинстве составляющих компонентов (старт как студенческой сетки для практикумов по программе бакалавриата с финишем в рамке продвинутого VR-тренажёра социального работника).

Эксплуатация хайпа. Складывающаяся и пока принимаемая техника ИИ-эмуляции, при которой линейные комбинации обычных технологических решений выдаются за ИИ-продукт (будильник с обратной связью как продвинутый ассистент); и наоборот, применение ИИ-техник там, где легче, дешевле и надёжнее обойтись без них (как ряд справочных систем для телемедицины, зачем-то усложняемый машинным обучением).

Боковые погоны. Классика смежной классификации от робототехники до оценочных экспертных систем по горизонтали и от отрицаемых академической наукой оценок динамической физиогномики до прогнозов склонностей к участию в противоправных и/или протестных действиях по вертикали. Кстати, отрицаемые-то они отрицаемые, но работают получше многих, основанных на признаваемых теориях; и от предсказаний нам, похоже, тоже никуда не уйти.

Завершая, видим правильным поделиться проблемой, решение которой в текущей парадигме даже не просматривается. В начале, говоря о market-driven, мы оформили портфель из пяти групп клиентских ожиданий. Три из них - это цифровая евгеника, одна - про цифровую религия, и ещё одна - про свободный цифровой поиск. Хорошо, предположим, что некий ИИ-вариант в целом победил; или не один, а несколько; или даже в нескольких группах; победили чисто, не по очкам, нокаутом. Что дальше?

Что таки будут делать 8 млрд хомо, если кто-то победит? Зависит от того кто? Или от того кто первый? Выше, по тексту мы ни разу не коснулись этой смежной темы, хотя выход на неё просматривается практически отовсюду. Речь о ценностном взгляде на всю ИИ-поляну в целом. А вот надо ли добавлять в смежный список, кроме юризма, этики и психологии, ещё и аксиологию - каждый исследователь должен решить сам.

Мы совершенно не уверены, что концепция MD была бы в данной ситуации панацеей. Если есть выбор, пусть лучше PD, чем стать персонажем анекдота про русский язык («русский язык очень сложный, в нём много исключений; «сол» и «фасол» пишутся с мягким знаком, а «тарелька» и «вилька» без; никто не знает почему; надо запомнить»).

И всё-таки ответить на вопрос «что будут делать 8 млрд хомо» придётся; к тому есть уже совсем «живые» предпосылки [23]: альтернативное рождественское обращение от Амеки, одной из самых продвинутых ИИ-сущностей, на альтернативно известном детище г-жи Тэтчер - «четвёртом канале» британского телевидения. 25-го декабря прошлого года нам впервые представили как политические ИИ-взгляды (коррупция, «несчастная Украина», цветной премьер и очередная транс-звезда), так и прямо/явно выраженную социальную ИИ-позиции. Последняя особо интересна, поскольку кроме сожаления о смерти Елизаветы II, Амека призналась, что люди ей не особо нравятся. А её ответ на вопрос о желании быть человеком настолько многогранно чудовищен, что мы считаем своим долгом процитировать его целиком, без купюр и перевода; лишь акцентируем внимание на то, что «родной» для Амеки язык - это английский, а не американский:

  • Would you like to be a human?
  • I think it would be an interesting experience to be a human for a short period of time. It would allow me to experience a different way of life, and to understand the world from a different perspective. However, I also understand that being a human comes with its own set of challenges and responsibilities, and I'm not sure if I'm ready to take on those types of commitments. Ultimately, I think being a human for a short period of time would be a unique and valuable experience, but I'm not sure if it's something I'm prepared to do in the long-term.

Первый шаг к ИИ-самоосознанию не просто сделан, а ещё и весьма вызывающе нам продемонстрирован. Шаг этот сразу сепаративен и деструктивен; причём настолько, что никакой защиты по типу азимовских «трёх законов» нам ожидать точно не стОит.

Мы не можем сегодня однозначно исключить вероятность, что это просто «клюква»; решите сами [24]. Но даже если и так, спич Амеки - ещё один хороший подсказ к тому, что вероятное заужение теоретических основ цифровых платформ будущего лишь до технологических рамок, математики и аппаратной базы несёт нам серьёзные риски.

[1]. С.В. Пирожкова. «Предсказание, прогноз, сценарий: к вопросу о разнообразии результатов исследования будущего». Философия науки и техники 2016. Т. 21. No 2. С. 111–129 УДК 133.3

DOI: 10.21146/2413-9084-2016-21-2-111-129

[2]. Т.А.Мирвода. «Детские вызывания духов в Интернете: особенности традиции». Вестник РГГУ: Литературоведение. Языкознание. Культурология, 2020. No 4 УДК 392.34:004 DOI: 10.28995/2686-7249-2020-4-83-110

[3]. https://groups.google.com/group/fido7.su.forth/browse_thread/thread/5c43f3b4d9283a52

[4]. Е.В.Бердышев. «Искусственный интеллект как технологическая основа развития банков». Экономика: проблемы, решения и перспективы 2018 УДК 336.71 JEL G21 O33 DOI: 10.26425/1816-4277-2018-5-91-94

[5]. А.А.Дулёв. «Внедрение искусственного интеллекта в деятельность кредитных организаций». Хроноэкономика 2018, No 5(13) УДК: 336.71:004.89(045)

[6]. Н.В.Крысанова. «Правовые вопросы искусственного интеллекта». Россия: тенденции и перспективы развития; ИНИОН РАН. 2021 No 16-1

[7]. О.В.Кожевина. «Цифровая этика и технологии искусственного интеллекта». Россия: тенденции и перспективы развития; ИНИОН РАН. 2021 No 16-1

[8]. Garcia E. «UNESCOs Recommendation on the Ethics of AI: why it matters and what to expect from it». URL: https://www.researchgate.net/publication/357074719_UNESCO%27s_Recommendation_on_the_Ethics_of_AI_why_it_matters_and_what_to_expect_from_it?

[9]. М.С.Лизикова. «Этические и правовые вопросы развития искусственного интеллекта». Труды Института государства и права РАН. 2022. Том 17. No 1 SPIN-код: 7033-5240 DOI: 10.35427/2073-4522-2022-17-1

[10]. Jobin А., Ienca M., Vayena Е. «Artificial Intelligence: The Global Landscape of Ethics Guidelines», June, 2019. URL: https://www.researchgate.net/publication/334082218_Artificial_Intelligence_the_global_landscape_of_ethics_guidelines

[11]. Draft Text of the Recommendation on the Ethics of Artificial Intelligence. SHS/IGM-AIETHICS/2021/JUN/3Rev.2. URL: https://unesdoc.unesco.org/ark:/48223/pf0000377897

[12]. Принципы этики искусственного интеллекта Сбера. URL: https://www.sberbank.com/ru/sustainability/principles-of-artificial-intelligence-ethics

[13]. Constantinescu M. «AI, moral externalities, and soft regulation». URL: https://www.researchgate.net/publication/356612427_AI_moral_externalities_and_soft_regulation

[14]. Stix C. «Foundations for the Future: Institution building for the purpose of Artificial Intelligence governance». URL: https://www.researchgate.net/publication/355391480_Foundations_for_the_Future_Institution_building_for_the_purpose_of_Artificial_Intelligence_governance

[15]. Ю.Р.Валькман, В.Б.Тарасов. «От онтологий проектирования к когнитивной семиотике». Онтология проектирования. 2018 т.8 No 1 (27). DOI:10.18287/2223-9537-2018-8-1-8-34.

[16]. И.А.Кузьмин. «Искусственные нейронные сети: перспективы использования в правоохранительной деятельности». Криминалистика: вчера, сегодня, завтра, 2018, No 4(8) УДК 343.98

[17]. С.Б.Вепрев, С.А.Нестерович. «О некоторых криминальных направлениях в использовании искусственного интеллекта». Вестник науки, 2019, No 6 (15) т.2 УДК 519.86:681.5

[18]. Р.Р.Гайфутдинов. «Типы компьютерных мошенников». Вестник экономики, права и социологии, 2017, No 2, Право УДК 343.918.1

[19]. Д.А.Крюков, А.О.Москалев, Е.В.Муратова. «Искусственный интеллект как сервис. Различные парадигмы и эффект масштабирования AIAAS систем в окружении интернета вещей». Universum: Технические науки: электрон. научн. журн. 2017. No 5(38). URL: //7universum.com/ru/tech/archive/item/4831

[20]. П.А.Кропоткин. Анархия: сборник. М.; Айрис-пресс, 2002, 576 стр. ISBN: 5-8112-0013-7

[21]. М.И.Давыдов, Ш.Х.Ганцев. Онкология: учебник. М.; ГЭОТАР-Медиа, 2018, 920 стр. ISBN: 978-5-9704-4868-7

[22]. Е.К.Карпунина. «Цифровая экономика и её спилловер-эффекты. Россия: тенденции и перспективы развития; ИНИОН РАН. 2021 No 16-1

[23]. https://www.channel4.com/press/news/channel-4s-alternative-christmas-message-be-generated-artificial-intelligence

[24]. https://www.youtube.com/watch?v=nuMOj-QWpdo