Десять заповедей для работы с ИИ
У меня не получается написать складное вступление к этому посту, поэтому вот краткая выжимка моих мыслей:
- Я нашла очень интересную статью об ответственности пользователей ИИ.
- Это важная дискуссия, потому что мы много говорим об ответственности компаний и законодательном регулировании, а об ответственности каждого из нас – не так много.
- Не поймите меня неправильно: всё (не буквально), что пишут об ответственности законодателей и разработчиков, – правда и важно.
- Но нам тоже стоит взять на себя часть ответственности, потому что мы взрослые люди и в наших силах контролировать свою жизнь (ну хотя бы отчасти).
Статья называется «It's Not the AI – It's Each of Us! Ten Commandments for the Wise & Responsible Use of AI» («Дело не в ИИ, но дело в каждом из нас! Десять заповедей мудрого и ответственного использования ИИ»).
Во вводном абзаце авторы пишут (и я с ними соглашаюсь в определённой степени):
«…ответственное использование ИИ – это вопрос не только кода и не только законодательства, но и сознательной практики: того, как каждый из нас взаимодействует с ИИ и учит других использовать его дома и на работе.»
Краткое вступление
Пока некоторые люди представляют себе «захват человечества ИИ» как плохо написанный голливудский фильм, реальность куда прозаичнее.
Мы естественным образом склонны выбирать пути попроще и предпочитать ужасный конец ужасу без конца. Или ужасный конец неопределённости, потому что неопределённость выглядит как ужас без конца. Поэтому мы рискуем переложить на ИИ слишком много важных решений и слишком много мыслительной работы – просто потому что так проще и комфортнее.
Авторы пишут: «Каждый из нас должен оставаться бдительным, развивать навыки и учиться использовать ИИ сознательно и ответственно».
Сейчас расскажу, почему я согласна с этой мыслью «в определённой степени».
Мы и так уже постоянно бдительны.
Большинство из нас вообще не может расслабиться и уже достаточно вымотаны, чтобы не иметь когнитивной ёмкости на критическое мышление, терпение или силу воли, когда они нам нужны. Причина в том, что когнитивную ёмкость активно пожирает куча мелких вещей, которые кажутся важными, но важными не являются.
Взять, например, такую мелочь как уведомления на телефоне. Они приходят от коллег или из каналов в соцсетях и приносят с собой шум, с которым нам нужно разбираться (или мы думаем, что нам нужно разбираться). Мы уже много обсуждали, как и какую информацию распространяют соцсети и каким образом это влияет на наше психическое здоровье – а значит, и на доступную ёмкость мозга.
Так что убедить человека отключить уведомления от соцсетей или отписаться от каких-то источников информации сравнительно несложно. Но вот когда речь идёт об уведомлениях от конкретных других людей: друзей, коллег, членов семьи – нужно приложить несколько больше усилий. Разрешите мне попробовать.
Итак, есть исследования, которые показывают, что мы склонны:
б) воспринимать задачу как срочную, если она пришла в сообщении с уведомлением.
Тогда очень типичный путь истощения когнитивных ресурсов (и безответственного подхода к ИИ в результате) выглядит примерно так:
- Приходит уведомление: это что-то срочное, надо ответить.
- Раз срочное, думать некогда. Какой самый быстрый способ сделать то, чего от меня хотят?
- Уведомления приходят непрерывно, значит, я всегда занят(а). Думать вообще некогда; доступная ёмкость мозга вся забита текущими задачами.
- Что бы спихнуть на ИИ?
- Проверять результат времени нет. Надеюсь, получатель проверит (спойлер: не проверит, потому что у него в голове происходит примерно то же самое).
Некоторые люди настолько в этом увязли, что совсем перестают думать, когда отправляют сообщения коллегам. Они постоянно горят и (без злого умысла) распространяют этот пожар по всему офису. Чувствуете привкус личной боли? Он есть.
Я знаю нескольких таких человек. Я выключила уведомления на наших личных чатах и проверяю их сообщения в заданные промежутки времени, пару раз в день. Большинство их горящих сообщений на самом деле не были срочными (или как следует обдуманными).
Я их честно и всей душой люблю, но мне нужна свободная ёмкость мозга. Я без неё не могу работать и вообще нормально функционировать.
Надеюсь, мне удалось объяснить на этом примере свой ход мыслей. Авторы статьи говорят: "Сделайте над собой усилие и подумайте," – а нам нечем делать усилие. Они говорят: "Вы должны быть бдительны," – а мы живём в режиме повышенной чувствительности ко всем поступающем извне сигналам.
Подытоживая этот раздел, рекомендация быть бдительными и мыслить критически – отличная, но начинать нужно не с неё. Начинать нужно с того, чтобы освободить место в голове, безжалостно выбросив оттуда кучу вещей, которые кажутся важными, но на самом деле не являются таковыми.
Если вам интересно что-то на эту тему почитать, рекомендую обратить внимание на «Джедайские техники» Максима Дорофеева (@Maxim Dorofeev). Да, там много болезненно очевидных вещей, но они написаны очень по-доброму, без вот этого вот: "Соберись, тряпка!" – а с большим сочувствием и пониманием, что мне отдельно импонирует.
Именно потому что "Джедайские техники" существуют, я не буду (во всяком случае, в этом посте) уделять много вниманию работе с ёмкостью мозга, хоть и считаю этот разговор очень важным.
Для меня, например, было проблемой в какой-то момент разрешить себе не проверять сообщения в чатах, на которых я выключила звук. В итоге режимы фокусирования не работали, потому что мою доступную когнитивную ёмкость подъедало чувство вины от того, что мне отвечают быстро, а я морожусь по нескольку часов. Дорофеевская книжка помогла мне с самопринятием: я теперь не думаю, что заставляю людей ждать, а думаю, что позволяю себе нормально подумать, и это в итоге всем вокруг полезно.
В целом, чем больше я думаю о безопасном и рациональном использовании ИИ, тем больше мне кажется, что начинать нужно вообще не с ИИ. Просто мысль, которую я пока оставлю тут без дальнейшего развития. Пока.
Заповеди
Итак, вот десять заповедей, которые предлагают авторы:
- Развивать и защищать человеческие способности.
- Ограничивать зависимость от ИИ.
- Учитывать все издержки.
- Содействовать справедливости и инклюзивности.
- Защищать приватность и безопасность данных.
- Делать использование ИИ прозрачным и открытым для обсуждения.
- Внедрять ИИ осознанно и целенаправленно.
- Прояснять ответственность до начала действий.
- Ставить ценности выше эффективности.
- Измерять, учиться и контролировать.
Первые три заповеди призваны защитить человечность. Первая описана так:
«Сохраняйте любопытство, критическое мышление, эмпатию и креативность в центре всего. Используйте ИИ, чтобы учиться и рефлексировать, а не чтобы перекладывать на него своё мышление.»
Как мы обсудили в предыдущем разделе, я бы добавила сюда пару строк:
- Изучайте, как работает наш мозг (я не говорю «закончивайте вуз по направлению "нейробиология"» – просто разберитесь в базовых принципах).
- Обсуждайте с другими, как работает наш мозг.
- Защищайте его ёмкость.
Возможно, это подразумевается, но давайте это вслух напишем.
В целом, эти "заповеди" – неплохая отправная точка.
Однако авторы во многом опираются на Европейский акт об ИИ (EU AI Act) – оно понятно, но, на мой взгляд, недостаточно. Чтобы исправить положение, предлагаю нам с вами также ознакомиться с «Social Principles of Human-Centric AI» («Социальные принципы человекоцентричного ИИ»), разработанными в Японии. Мне лично они сильно откликаются, и я считаю, что из них можно многое заимствовать.
Философия «Социальных принципов человекоцентричного ИИ»
Документ начинается с описания текущего состояния, в котором все мы оказались:
«Наше современное общество сталкивается со множеством вызовов, угрожающих существованию человечества: глобальные проблемы окружающей среды, растущее экономическое неравенство и истощение ресурсов.»
Мне кажется важным с этого начинать, потому что мы, обсуждая ИИ, склонны слишком сильно фокусироваться на самом ИИ.
Это привлекательная позиция, но она здорово сужает нам обзор, потому что ИИ не существует в вакууме – он существует в мире, полном проблем, корни которых были заложены задолго до его зарождения. Именно поэтому в последнее время меня начинает передёргивать от фраз вроде «ценности в ИИ» или «предвзятость и справедливость в ИИ». Это хорошие фразы и важные направления обсуждения, но чаще, чем хотелось бы, они не значат ничего конкретного или значат слишком много всего сразу. Когда мы начинаем их обсуждать, мы, как правило, обсуждаем выходные данные моделей: как они отражают реальный мир, как вредят или поддерживают людей. Это важно. Но почему мы начинаем не с головы, а с… противоположного конца-то?
«Социальные принципы» начинаются с раздела о базовой философии.
Опорный столп «Социальных принципов» – понятие Общества 5.0 (Society 5.0). Сегодня мы о нём говорить не будем: оно заслуживает отдельного разбора. Перейдём пока сразу к трём ключевым ценностям, которые авторы ставят во главу угла:
- [Строить] общество, в котором уважается человеческое достоинство.
- [Строить] общество, в котором люди с разным опытом и происхождением могут стремиться к собственному благополучию.
- [Строить] устойчивое общество.
Общество, а не ИИ – вот почему мне эти принципы так импонируют.
Описывая каждую из ключевых ценностей, авторы подчёркивают необходимость поддерживать устойчивое технологическое развитие, поддерживать людей и принимать наши различия. И здесь я вижу разительный контраст с тем, на чём фокусируется, например, MIRI. Я привожу MIRI в качестве примера, потому что у меня с их философией сложные отношения.
Я не имею в виду, что эта философия плоха. Напротив, я их много хвалю и поддерживаю. Но совершенно не всё, о чём они говорят и пишут, мне близко.
Подытожим. Мне кажется, что всё человечество было бы коллективно гораздо счастливее, если бы мы выбрали восточную философию баланса и саморефлексии, а не западную философию конкуренции и вызова.
Даже когда речь идёт о законодательстве вокруг ИИ: запрещать страшные вещи налево и направо легко – принимать страшные вещи, рефлексировать над ними и искать баланс полезно. Эту мысль я пока тоже просто оставлю здесь настояться.
P.S.
Если то, о чём я пишу, вам близко, подпишитесь на мой телеграм. Да, прорваться туда сейчас непросто, но это самая удобная для меня рабочая площадка, и уйду я оттуда только если мне пистолет к виску приставят. И то не факт.
Подпишитесь, отключите уведомления и заходите раз в неделю посмотреть, что там нового. Я не пишу хайповые новости, не распространяю панику и не пользуюсь грязными маркетинговыми приёмами – у меня там спокойно и хорошо