Глава Signal Technology Foundation о стрельбе в школе Тамблер-Риджа, ИИ и приватности в сети

После трагедии в школе города Тамблер-Ридж разгорелась дискуссия о том, должны ли компании, разрабатывающие искусственный интеллект, сообщать полиции о потенциально опасных разговорах пользователей чатов.
10 февраля 18-летний подросток устроил стрельбу в школе в городе Тамблер-Ридж. В результате погибли восемь человек. После нападения подросток покончил с собой. Спустя несколько недель компания OpenAI признала, что незадолго до трагедии нападавший обсуждал возможную атаку с ChatGPT. При этом компания решила не уведомлять правоохранительные органы. Теперь многие канадцы задаются вопросом: почему? Ведущий подкаста Machines Like Us Тейлор Оуэн обсудил эту тему с Мередит Уиттакер — президентом компании Signal Technology Foundation. Её мессенджер, Signal, известен надёжной защитой личных данных: сообщения в нём зашифрованы, а сама платформа практически не собирает информацию о пользователях.

Тейлор Оуэн: В прошлом месяце произошла стрельба в школе в Тамблер-Ридже. Позже выяснилось, что подросток обсуждал нападение с ChatGPT, но OpenAI не сообщила об этом полиции. После трагедии многие люди пришли к выводу: такие разговоры должны автоматически отслеживаться и передаваться правоохранительным органам. Как вы к этому относитесь?

Мередит Уиттакер: Люди думают, что если компании будут автоматически передавать такие разговоры полиции, это позволит предотвратить подобные случаи. Но на самом деле дело не в нехватке информации: у служб, которые должны реагировать, просто нет ресурсов, чтобы расследовать все возможные угрозы и вовремя принимать меры.

Оуэн: Если внедрить систему обязательного уведомления полиции о таких сообщениях — каковы риски?.. Читайте весь материал в новом выпуске нашего журнала “Из жизни“. Подписывайтесь на наш Telegram-канал, чтобы всегда оставаться в курсе событий.

Источник – Торонтовка