Загроза створення біологічної зброї за допомогою ШТ
Провідні фахівці у галузі кібербезпеки та біотехнологій висловлюють занепокоєння через потенційне використання великих мовних моделей штучного інтелекту у створенні біологічних загроз. Завдяки здатності ШІ швидко аналізувати величезні масиви генетичних даних, процес проектування небезпечних вірусів або бактерій може значно спроститися.
Існує ризик, що зловмисники зможуть використовувати відкриті моделі ШІ для отримання покрокових інструкцій з культивації патогенів, які раніше потребували глибоких академічних знань. Це ставить під загрозу існуючі протоколи нерозповсюдження зброї масового ураження.
Міжнародна спільнота вже розпочала обговорення необхідності впровадження «запобіжників» у розробку ШІ. Зокрема, пропонується обмежити доступ алгоритмів до специфічних баз даних, пов'язаних із токсикологією та вірусологією, щоб запобігти зловживанням.
Наразі розробники найбільших систем ШІ запевняють, що впроваджують суворі фільтри безпеки, проте експерти наголошують, що технологічний прогрес випереджає законодавче регулювання у цій критичній сфері.
Key Details
- ШІ здатний значно прискорити аналіз генетичних послідовностей патогенів
- Існує небезпека отримання інструкцій щодо створення біозброї через чат-боти
- Експерти вимагають негайного запровадження міжнародних регуляцій
- Розробники технологій намагаються впровадити внутрішні фільтри безпеки
Impact Analysis
Технологія розглядається як потенційне джерело нових глобальних загроз.