Công nghệ

EU thông qua đạo luật quản lý AI toàn diện đầu tiên trên thế giới

(VNF) - Ngày 13/3, Nghị viện châu Âu đã thông qua đạo luật đầu tiên trên thế giới về việc quản lý trí tuệ nhân tạo (AI), bao gồm cả các chatbot như ChatGPT của OpenAI.

EU thông qua đạo luật quản lý AI toàn diện đầu tiên trên thế giới

EU đi đầu trong việc thông qua đạo luật để quản lý trí tuệ nhân tạo một cách tương đối toàn diện.

Đạo luật đầu tiên về quản lý AI

Theo CNBC, trong phiên họp ngày 13/3 của Nghị viện châu Âu, các nhà lập pháp đã thông qua Đạo luật Trí tuệ nhân tạo với 523 phiếu ủng hộ, 46 phiếu chống và 49 phiếu trắng.

Việc thông qua đạo luật diễn ra 5 năm sau khi những quy tắc đầu tiên về AI được đề xuất, 3 năm sau khi Đạo luật AI được đưa ra và hơn 1 năm kể từ khi sự bùng nổ của các sản phẩm AI tạo ra cuộc cạnh tranh gắt gao về lĩnh vực này.

Các quan chức cấp cao của Liên minh châu Âu (EU) cho biết các quy tắc trong đạo luật sẽ bảo vệ công dân khỏi những rủi ro có thể xảy ra khi công nghệ phát triển với tốc độ chóng mặt, đồng thời thúc đẩy sự đổi mới trên lục địa này. 

Với việc thông qua Đạo luật AI, châu Âu là nơi đầu tiên có một đạo luật về việc quản lý AI một cách toàn diện, dự kiến ​​​​sẽ đóng vai trò là "ngọn cờ đầu" cho các chính phủ khác đang vật lộn với cách điều chỉnh công nghệ đang phát triển nhanh chóng.

“Châu Âu NGAY BÂY GIỜ là nơi đặt ra tiêu chuẩn toàn cầu về AI”, ông Thierry Breton, ủy viên châu Âu về thị trường nội bộ, viết trên mạng xã hội X.

Chủ tịch Nghị viện Châu Âu, Roberta Metsola, mô tả đạo luật này là tiên phong, nói rằng nó sẽ tạo điều kiện cho sự đổi mới, đồng thời bảo vệ các quyền cơ bản.

“Trí tuệ nhân tạo đã trở thành một phần rất quan trọng trong cuộc sống hàng ngày của chúng ta. Bây giờ, nó cũng sẽ là một phần trong luật pháp của chúng tôi”, bà Metsola viết trong một bài đăng trên mạng xã hội.

Dragos Tudorache, một nhà lập pháp giám sát các cuộc đàm phán của EU về thỏa thuận, ca ngợi thỏa thuận này, nhưng lưu ý rằng trở ngại lớn nhất vẫn là việc thực hiện.

Đạo luật AI hoạt động như thế nào?

Ra đời vào năm 2021, Đạo luật AI của EU chia công nghệ thành các loại rủi ro, từ “không thể chấp nhận” - nghĩa là công nghệ sẽ bị cấm - đến mức độ nguy hiểm cao, trung bình và thấp.

Việc sử dụng AI có rủi ro cao, chẳng hạn như trong các thiết bị y tế hoặc cơ sở hạ tầng quan trọng như mạng lưới điện hoặc nước, phải đối mặt với các yêu cầu khó khăn hơn như sử dụng dữ liệu chất lượng cao và cung cấp thông tin rõ ràng cho người dùng.

Một số việc sử dụng AI bị cấm vì chúng được coi là có rủi ro không thể chấp nhận được, như hệ thống tính điểm xã hội chi phối cách mọi người cư xử, một số loại hệ thống cảnh sát dự đoán và nhận dạng cảm xúc ở trường học và nơi làm việc.

Các mục đích sử dụng bị cấm khác bao gồm việc cảnh sát quét khuôn mặt ở nơi công cộng bằng hệ thống nhận dạng sinh trắc học từ xa được hỗ trợ bởi AI, ngoại trừ các tội phạm nghiêm trọng như bắt cóc hoặc khủng bố.

Các dự thảo ban đầu của luật tập trung vào các hệ thống AI thực hiện các nhiệm vụ hạn chế trong phạm vi hẹp, như quét sơ yếu lý lịch và đơn xin việc. Sự gia tăng đáng kinh ngạc của các mô hình AI có mục đích chung, điển hình là ChatGPT của OpenAI, đã khiến các nhà hoạch định chính sách EU phải nỗ lực để theo kịp.

Họ đã bổ sung các điều khoản cho mô hình AI tổng quát, công nghệ làm nền tảng cho các hệ thống chatbot AI có thể tạo ra các phản hồi, hình ảnh độc đáo và dường như sống động như thật,...

Các nhà phát triển mô hình AI có mục đích chung – từ các công ty khởi nghiệp châu Âu đến OpenAI và Google – sẽ phải cung cấp bản tóm tắt chi tiết về văn bản, hình ảnh, video và dữ liệu khác trên internet được sử dụng để đào tạo hệ thống cũng như tuân theo luật bản quyền của EU.

Hình ảnh, video hoặc âm thanh giả mạo sâu do AI tạo ra về những người, địa điểm hoặc sự kiện hiện có phải được gắn nhãn là bị thao túng một cách giả tạo.

Cần có sự giám sát chặt chẽ hơn đối với các mô hình AI lớn nhất và mạnh nhất gây ra “rủi ro hệ thống”, bao gồm GPT4 của OpenAI — hệ thống tiên tiến nhất — và Gemini của Google.

Các công ty cung cấp các hệ thống này sẽ phải đánh giá và giảm thiểu rủi ro; báo cáo bất kỳ sự cố nghiêm trọng nào, chẳng hạn như trục trặc gây ra cái chết của ai đó hoặc tổn hại nghiêm trọng đến sức khỏe hoặc tài sản; áp dụng các biện pháp an ninh mạng; và tiết lộ lượng năng lượng mà mô hình của họ sử dụng.

Quy định này dự kiến ​​sẽ có hiệu lực vào cuối cơ quan lập pháp vào tháng 5, sau khi vượt qua bước kiểm tra cuối cùng và nhận được sự thông qua từ Hội đồng châu Âu. Việc thực hiện sau đó sẽ được thực hiện dần từ năm 2025 trở đi.

Những hành vi vi phạm Đạo luật AI có thể bị phạt lên tới 35 triệu EUR (38 triệu USD), tương đương 7% doanh thu toàn cầu của công ty.

Phần còn lại của thế giới đang làm gì?

Brussels lần đầu tiên đề xuất các quy định về AI vào năm 2019, đóng vai trò toàn cầu quen thuộc trong việc tăng cường giám sát các ngành công nghiệp mới nổi, trong khi các chính phủ khác đang cố gắng theo kịp.

Tại Mỹ, Tổng thống Joe Biden đã ký một sắc lệnh hành pháp sâu rộng về AI vào tháng 10/2023, dự kiến ​​sẽ được hỗ trợ bởi luật pháp và các thỏa thuận toàn cầu. Trong khi đó, các nhà lập pháp ở ít nhất 7 bang của Mỹ đang nghiên cứu luật AI của riêng mình.

Chủ tịch Trung Quốc Tập Cận Bình đã đề xuất Sáng kiến ​​Quản trị AI Toàn cầu để sử dụng AI một cách công bằng và an toàn, đồng thời các nhà chức trách đã ban hành “các biện pháp tạm thời” để quản lý AI có tính tổng hợp, áp dụng cho văn bản, hình ảnh, âm thanh, video và các nội dung khác được tạo ra cho người dân ở Trung Quốc.

Các quốc gia khác, từ Brazil đến Nhật Bản, cũng như các nhóm toàn cầu như Liên hợp quốc và Nhóm bảy quốc gia công nghiệp phát triển (G-7), cũng đang tiến hành xây dựng các "rào chắn" liên quan tới AI.

Xem thêm >> Nhật Bản thiếu lao động: Ứng dụng AI, dùng robot và nhân vật ảo thay con người

Tin mới lên