Các nguy cơ từ AI đòi hỏi cách tiếp cận mới trong thiết kế bảo mật

Những nguy cơ tiềm ẩn từ sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đồng nghĩa với việc các biện pháp bảo vệ cần phải được tích hợp vào hệ thống ngay từ đầu, thay vì tìm cách xử lý hậu kỳ.

Trên đây là nhận định của bà Jen Easterly - Giám đốc Cơ quan An ninh Mạng và An ninh Cơ sở hạ tầng Mỹ - trong cuộc làm việc với Giám đốc Trung tâm An ninh mạng Canada Sami Khoury. 

Phát biểu với báo giới sau cuộc hội đàm tại Ottawa (Canada) ngày 27/11, bà Easterly nêu rõ: "Chúng ta đã bình thường hóa một thế giới, nơi mà các sản phẩm công nghệ ra đời với một tá lỗ hổng và sau đó người tiêu dùng được kỳ vọng sẽ là người 'vá' những lỗ hổng đó. Chúng ta không thể sống trong thế giới đó với công nghệ AI. Công nghệ này quá mạnh và phát triển quá nhanh".

Quan chức Mỹ cho biết các cơ quan từ 18 quốc gia, bao gồm cả Mỹ, đã tán thành các khuyến nghị do Anh soạn thảo về an ninh mạng liên quan AI, trong đó đề cập việc thiết kế, phát triển và sử dụng công nghệ này một cách an toàn. 

Đầu tháng này, các nhà phát triển AI hàng đầu trên thế giới đã nhất trí hợp tác với các chính phủ thử nghiệm mọi mô hình AI trước khi chính thức phát hành, nhằm quản lý nguy cơ tiềm ẩn từ sự phát triển nhanh chóng của công nghệ này.

Bà Easterly đánh giá các nước trên thế giới hiện đã nỗ lực tối đa, gắn kết với công ty công nghệ nhằm phát triển các công nghệ theo cách an toàn nhất có thể.