Искусственный интеллект и экономическая политика

Искусственный интеллект и экономическая политика

Сегодня под искусственным интеллектом (ИИ) все чаще понимают машинное обучение (machine learning), в рамках которого компьютеры уже не действуют в соответствии с формализованными правилами, придуманными людьми (например, играть в шахматы), но «учатся» на примерах — больших массивах информации. Человеческая способность к генерализации на основе ограниченных данных сегодня, по-видимому, является фронтиром искусственного интеллекта, отделяющим его от интеллекта «естественного». Для экономистов машинное обучение представляет собой радикальное снижение издержек прогнозирования, где под прогнозированием понимается способность генерировать новую информацию на основе уже известной. В этом смысле прогнозирование является фундаментальным аспектом любых процессов принятия решений, следовательно, радикальное снижение его стоимости имеет ключевое значение для экономической жизни и является важным вопросом экономической политики. В недавней статье экономисты NBER Аджэй Агравал, Джошуа Ганс и Ави Гольдфарб обсуждают наиболее важные аспекты экономической политики для развития ИИ.

 

Конфиденциальность под угрозой

 

 

Первая проблема касается конфиденциальности персональных данных —  главного «ресурса» машинного обучения. Во-первых, стоимость хранения личной информации сравнительно невелика, а значит, пользовательские данные могут надолго «пережить» человека, который их сгенерировал. Во-вторых, использование данных может не соответствовать или противоречить тем целям, для которых они создавались. В-третьих, данные, генерируемые одним человеком, могут содержать сведения о других людях. Таким образом, возникает необходимость регулирования вопросов конфиденциальности. Недостаточная защита персональных данных приведет к тому, что люди просто перестанут пользоваться платформами, где применяется машинное обучение. С другой стороны, избыток регулирования не позволит провайдерам зарабатывать с помощью анализа пользовательских данных.

 

Существующие исследования указывают на то, что усиление регулирования в вопросах конфиденциальности при прочих равных условиях обычно ведет к замедлению темпов адаптации новых технологий и снижению инновационной активности. Например, исследование 2011 года показало, что более жесткое регулирование технологий онлайн-трекинга, принятое странами Европейского союза, понизило эффективность баннерной рекламы в Европе на 65% по сравнению с США, где законы мягче. Поскольку наиболее дорогие технологические компании сегодня в значительной степени зависят от своих рекламных доходов (Facebook, Google, Baidu), усиление регулирования в той или иной юрисдикции может нанести ущерб конкурентоспособности местных компаний, работающих в рамках аналогичных бизнес-моделей. В таких областях, как здравоохранение, от использования персональных данных может зависеть жизнь и здоровье пациентов. Итак, право на конфиденциальность частной жизни может в ряде случаев оказаться в конфликте с другими фундаментальными правами, реализация которых опирается на использование персональных данных.

 

Конкуренция за прогресс

 

 

Как видно из примера с регулированием конфиденциальности информации, распространение технологий ИИ существенно зависит от специфики регулирования в разных странах. Поскольку данные обладают эффектом экономии от масштаба, а исследователи могут учиться применять машинное обучение путем практического экспериментирования, ключевым фактором, определяющим скорость разработки технологий ИИ, является доступность информации. В этой ситуации правительства будут заинтересованы в минимизации регулирующего воздействия, вовлекаясь в «игру на понижение». Например, если в странах Евросоюза регулирование персональных данных будет более жестким, чем в США, а в США — более жестким, чем в Китае, американские компании выиграют относительно европейских, а китайские — относительно американских: у них будет доступ к большему количеству сведений, а следовательно, больше возможностей для разработки новых технологий ИИ.

 

Сдержать такую «гонку» могли бы международные соглашения в области регулирования персональных данных, однако не вполне ясно, каким образом такие договоренности могут повлиять на скорость развития и распространения ИИ в целом. Экономисты считают, что наличие более жесткого регулирования, скорее всего, сместит инновационную активность в другие области. Еще один возможный вариант — страны будут ввязываться в «игру на понижение» в том случае, если за счет развития ИИ они смогут получать рентные доходы. Иными словами, минимизировать регулирование персональных данных имеет смысл, когда у страны есть шанс занять монопольное положение в той или иной области применения искусственного интеллекта хотя бы на некоторое время.

 

Кто в ответе за роботов и алгоритмы?

 

 

Не менее важным для развития ИИ является деликтное право, которое регулирует случаи, когда действия одного лица причиняют вред другому.

 

Когда речь идет об ИИ, наиболее показательными являются примеры беспилотных автомобилей и алгоритмов. В производстве беспилотных транспортных средств участвует множество фирм — разработчики ИИ, провайдеры телекоммуникационных услуг, производители сенсоров, а также производители самих автомобилей. При отсутствии четких правил, регламентирующих распределение ответственности в случае аварии беспилотного автомобиля, фирмы могут воздерживаться от инвестиций в ИИ-разработки. Поскольку беспилотным автомобилем не управляет человек, значительная часть рисков несут производители. Аналогичные ситуации возможны при работе с высокотехнологичным медицинским оборудованием или алгоритмической диагностикой.

 

Вторым примером являются смещенные алгоритмы. Агравал, Ганс и Гольдфарб приводят пример смещения алгоритма динамического ценообразования, который генерировал более высокие цены за рекламные объявления, направленные на женщин. В результате таргетирование рекламы естественно-научного и инженерного образования оказалось смещенным в пользу мужчин, лучше представленных в данных дисциплинах. В США такого рода непреднамеренная дискриминация может стать поводом для судебного иска. В других сферах использования ИИ «предвзятость» алгоритмов чревата более серьезными правовыми последствиями — в уже упомянутой медицинской диагностике, анализе кредитной истории или уголовном профайлинге. Как и в случае с производителями беспилотных автомобилей, риск возрастает прежде всего для поставщиков ИИ: несмотря на то, что человек, принимающий решения, может быть не менее предвзятым, алгоритмы по определению являются более «прозрачными», чем процессы принятия решений реальными людьми. Осуществить судебный аудит кода значительно проще, чем допрос человека: алгоритм не может лжесвидетельствовать, вступить в сговор или отказаться от дачи показаний. Следовательно, у истца возрастают шансы на успех в суде и появляется стимул вложиться в судебное преследование.

 

Регулирование будущего

 

 

Консенсус по поводу оптимальной экономической политики для ИИ на данный момент не сложился, однако уже сейчас можно отметить наиболее важные проблемы, с которыми столкнется будущее регулирование.

 

Во-первых, экономические свойства данных делают регулирование необходимым, чтобы избежать провала рынка.

Во-вторых, в таких областях, как здравоохранение или юриспруденция потребуется выработка компромисса между индивидуальным правом на неприкосновенность частной жизни и социальными благами — общественным здоровьем и справедливым судом.

В-третьих, формулирование национальных экономических политик для ИИ потребует параллельной разработки международных соглашений, регламентирующих трансфер технологий.

Наконец, необходимо четкое распределение юридической ответственности всех участников производственной цепочки ИИ-продуктов, так как в противном случае риск судебного преследования может существенно замедлить инновационные разработки в этой сфере.

 

Дмитрий Жихаревич