На одном из недавних тренингов кто-то поднял руку и спросил: «Может ли ИИ быть этичным, если люди такими не являются?»
Я задумался. Не потому что вопрос был плох, а потому что он был правильным, и я не был уверен, готова ли аудитория услышать мой ответ.
Большинство сбоев ИИ — это не технические сбои. Это человеческие ошибки, замаскированные под технические проблемы.
Плохие инструкции, игнорирование контекста, слепое доверие, непроверенные предположения - всё это может привести к сбою. Я видел команды, которые внедряли ИИ‑инструменты, не до конца их понимая, автоматизировали решения, которые не могли объяснить, и удивлялись, когда что-то шло не так.
ИИ не провалился. Люди не задали правильные вопросы до того, как нажали «запустить».
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Я не планировал преподавать этику ИИ. Моя задача была проста: помочь организациям внедрить Salesforce AI, не нарушая процессы.
Но каждая техническая беседа возвращалась к неудобным вопросам:
• Кто несёт ответственность, если система ошибётся?
• Что произойдёт, если кто-то пострадает из-за автоматического решения?
• Как мы узнаем, что система не усугубляет ситуацию вместо того, чтобы улучшить её?
Это уже не технические вопросы. Это этические вопросы.
Большинство людей, работающих с ИИ, не обучены думать в таких терминах.
Я понял: этику нельзя преподавать через чеклист.
Люди не чувствуют фразы вроде «обеспечьте прозрачность алгоритма» или «сведите к минимуму предвзятость в данных». Они звучат важно, но ничего не значат, пока не сделать их реальными.
Поэтому я стал рассказывать истории.
Одна из них:
Некоммерческая организация использовала ИИ, чтобы определить, каким донорам звонить во время ежегодной кампании. Система работала идеально: количество звонков выросло, эффективность увеличила��ь, сотрудники были довольны.
Но кто-то заметил, что давние доноры, которые давали небольшие суммы, больше не получали звонков. ИИ понял, что «большие подарки = высокий приоритет», что логично с точки зрения дохода.
Но маленькие доноры? Многие из них поддерживали организацию 20+ лет. Они не были высокодоходными, но оставались лояльными. Когда они перестали получать внимание, некоторые прекратили пожертвования.
ИИ ничего не нарушил. Он просто оптимизировал то, чему его научили.
Люди забыли спросить:
Что мы жертвуем ради этой эффективности?
Теперь, когда я объясняю этику ИИ, я использую простой принцип: Если решение вашей системы завтра окажется в заголовках новостей, будете ли вы этим гордиться?
Не «соответствует ли это юридическим нормам». Не «можно ли защитить это с точки зрения политики компании».
Будете ли вы гордиться? Можете ли вы спокойно объяснить это команде, совету или обществу?
Если ответ «нет» или «не уверен», значит у вас этическая проблема, а не техническая.
Многие думают, что управление - это бюрократия: правила, документация, процессы одобрения, которые замедляют работу.
Но хорошее управление - это эмпатия в масштабе.
Это значит задавать вопросы: кто может пострадать? Что может пойти не так? Как мы это заметим? Что мы сделаем, чтобы исправить?
Эмпатия не замедляет процесс, она помогает избежать ошибок, о которых вы потом пожалеете.
Пример: клиент хотел использовать ИИ для рекомендаций по стипендиям. Отличная идея, но ист��рические данные отражали старые предвзятости.
Если бы ИИ был запущен без проверки, система автоматизировала бы старые ошибки. Эмпатия помогла вовремя остановить запуск и переработать набор данных.
ИИ сам по себе не хорош и не плох. Он отражает приоритеты и слепые зоны людей, которые его создают, и данные, на которых он обучается.
Для этичного ИИ нужны этичные люди, которые задают трудные вопросы:
• Что мы оптимизируем, а что игнорируем?
• Кто выигрывает, а кто может пострадать?
• Можем ли мы это объяснить другим понятно?
Этика - это не чеклист. Это линза, через которую смотрят на каждое решение.
Может ли ИИ быть этичным, если люди такими не являются?
Нет.
Но есть более важный вопрос: может ли работа с ИИ сделать людей более этичными?
Я думаю, что да, если использовать это как возможность проверить свои предположения, уточнить ценности и построить системы, отражающие мир, который мы действительно хотим создать.
Нам не нужны умнее машины. Нам нужны яснее люди.
Этика ИИ - это сложная тема, и у каждого своё видение. Как вы думаете, что важнее: дать машинам делать быстро или иногда нажимать на паузу и подумать?
Будет интересно прочитать ваши мысли в комментариях! Спасибо за прочтение!