Mưa như trút nước, đường phố Đà Nẵng bị ngập sâu
(VNF) - Mưa lớn kéo dài nhiều giờ liền khiến nhiều tuyến đường trên địa bàn TP. Đà Nẵng ngập nặng. Học sinh phải nghỉ học, nhiều cơ quan cũng cho người lao động nghỉ làm.
Khi công nghệ kỹ thuật số ngày càng trở thành một phần trung tâm trong mọi khía cạnh của cuộc sống con người, sự tin tưởng và phụ thuộc vào các công nghệ này ngày càng lớn. Điều này tạo ra sự thuận tiện nhất định cho con người, nhưng cũng tạo ra những vấn đề liên quan tới tính chính xác, mức độ bảo mật cũng như việc sử dụng dữ liệu này cho các mục đích nhất định.
Trong đó, AI là một trong những ứng dụng quan trọng nhất của nền kinh tế dữ liệu, từ đó đặt ra nhu cầu cấp thiết về việc có những quy định về quản lý AI, nhằm đảm bảo an toàn dữ liệu và tận dụng những lợi ích của công nghệ này một cách văn minh.
Trên khắp thế giới, các quốc gia đều đang tiến tới việc đưa ra những quy chuẩn nhằm đưa AI vào khuôn khổ, đặc biệt sau khi năm 2023 chứng khiến sự bùng nổ của các công nghệ nổi tiếng trong lĩnh vực này (ChatGPT của OpenAI, Gemini của Google, Copilot của Microsoft,...)
Liên minh châu Âu (EU) lần đầu tiên đề xuất các quy định về AI vào năm 2019, đóng vai trò toàn cầu quen thuộc trong việc tăng cường giám sát các ngành công nghiệp mới nổi, sau đó có ý tưởng về một Đạo luật AI vào năm 2021.
Tại Mỹ, Tổng thống Joe Biden đã ký một sắc lệnh hành pháp sâu rộng về AI vào tháng 10/2023, dự kiến sẽ được hỗ trợ bởi luật pháp và các thỏa thuận toàn cầu. Trong khi đó, các nhà lập pháp ở ít nhất 7 bang của Mỹ đang nghiên cứu luật AI của riêng mình.
Chủ tịch Trung Quốc Tập Cận Bình cũng đã đề xuất Sáng kiến Quản trị AI Toàn cầu để sử dụng AI một cách công bằng và an toàn, đồng thời các nhà chức trách đã ban hành “các biện pháp tạm thời” để việc quản lý AI đảm bảo tính tổng hợp, áp dụng cho văn bản, hình ảnh, âm thanh, video và các nội dung khác được tạo ra cho người dân ở Trung Quốc. Các quốc gia khác, từ Brazil đến Nhật Bản, cũng như các nhóm toàn cầu như Liên hợp quốc và Nhóm bảy quốc gia công nghiệp phát triển (G7), cũng đang tiến hành xây dựng các “rào chắn” liên quan tới AI.
5 năm sau khi EU đưa ra những đề xuất đầu tiên về việc đưa AI vào khuôn khổ, đến ngày 13/3/2024, Nghị viện châu Âu đã chính thức thông qua Đạo luật Trí tuệ nhân tạo với 523 phiếu ủng hộ, 46 phiếu chống và 49 phiếu trắng. Sau Đạo luật Thị trường Kỹ thuật số và Dịch vụ Kỹ thuật số năm 2022, Đạo luật AI là luật cuối cùng mới nhất liên quan đến công nghệ được thông qua trong Nghị viện và Ủy ban châu Âu 2019-2024 như một phần sứ mệnh nhằm tạo ra một châu Âu phù hợp với Thời đại Kỹ thuật số.
Với việc thông qua Đạo luật AI, châu Âu là nơi đầu tiên có một đạo luật về việc quản lý AI một cách toàn diện, dự kiến sẽ đóng vai trò là “ngọn cờ đầu” cho các Chính phủ khác đang vật lộn với cách điều chỉnh công nghệ đang phát triển nhanh chóng.
Tháng 4/2021, Ủy ban Châu Âu đã đề xuất khung pháp lý đầu tiên của EU đối với AI, trong đó đề xuất quản lý các hệ thống AI dựa trên rủi ro mà chúng gây ra cho người dùng. Đây là cơ chế xuyên suố và là cách tiếp cận đã được chấp nhận trong Đạo luật AI mới được thông qua. Theo đó, Đạo luật AI của EU chia công nghệ thành các loại rủi ro, từ mức không thể chấp nhận, đến mức độ nguy hiểm cao, hạn chế và tối thiểu.
Hệ thống AI bị đánh giá là có rủi ro không thể chấp nhận là hệ thống được coi là mối đe dọa đối với con người và sẽ bị cấm. Những hệ thống này bao gồm việc thao túng hành vi nhận thức của con người hoặc các nhóm dễ bị tổn thương cụ thể, ví dụ như đồ chơi kích hoạt bằng giọng nói khuyến khích hành vi nguy hiểm ở trẻ em; hệ thống chấm điểm xã hội, phân loại con người dựa trên hành vi, tình trạng kinh tế xã hội hoặc đặc điểm cá nhân; nhận dạng sinh trắc học và hệ thống nhận dạng sinh trắc học từ xa và thời gian thực, chẳng hạn như nhận dạng khuôn mặt.
Các hệ thống AI ảnh hưởng tiêu cực đến sự an toàn hoặc các quyền cơ bản sẽ được coi là có rủi ro cao và sẽ được chia thành hai loại, bao gồm hệ thống AI được sử dụng trong các sản phẩm tuân theo luật an toàn sản phẩm của EU (hàng không, thiết bị y tế, thang máy, đồ chơi) và các hệ thống AI thuộc các lĩnh vực cụ thể sẽ phải được đăng ký trong cơ sở dữ liệu của EU. Tất cả các hệ thống AI có rủi ro cao sẽ được đánh giá trước khi đưa ra thị trường và trong suốt vòng đời của chúng.
Các hệ thống AI được phân loại là rủi ro hạn chế, bao gồm các chatbot, được coi là ít rủi ro hơn so với các hệ thống có rủi ro cao và do đó phải đối mặt với ít ràng buộc pháp lý hơn, dù vẫn phải tuân thủ các nghĩa vụ minh bạch cụ thể để duy trì trách nhiệm giải trình và độ tin cậy trong quá trình triển khai. Trong khi đó, các hệ thống rủi ro tối thiểu như trò chơi và bộ lọc thư rác có thể được ứng dụng rộng rãi.
Các dự thảo ban đầu của luật tập trung vào các hệ thống AI thực hiện các nhiệm vụ hạn chế trong phạm vi hẹp, như quét sơ yếu lý lịch và đơn xin việc. Sự gia tăng đáng kinh ngạc của các mô hình AI có mục đích chung, điển hình là ChatGPT của OpenAI, đã khiến các nhà hoạch định chính sách EU bổ sung các điều khoản cho mô hình AI tổng quát, công nghệ làm nền tảng cho các hệ thống chatbot AI có thể tạo ra các phản hồi, hình ảnh độc đáo và sống động như thật...
Các công ty cung cấp các hệ thống này sẽ phải đánh giá và giảm thiểu rủi ro; báo cáo bất kỳ sự cố nghiêm trọng nào, chẳng hạn như trục trặc gây ra cái chết của ai đó hoặc tổn hại nghiêm trọng đến sức khỏe hoặc tài sản; áp dụng các biện pháp an ninh mạng; và tiết lộ lượng năng lượng mà mô hình của họ sử dụng.
Sau khi được thông qua, việc thực hiện các quy định sẽ được tiến hành dần từ năm 2025 trở đi. Những hành vi vi phạm Đạo luật AI có thể bị phạt lên tới 35 triệu EUR (38 triệu USD). Mỗi quốc gia EU sẽ thành lập cơ quan giám sát AI của riêng mình, nơi công dân có thể nộp đơn khiếu nại nếu họ cho rằng họ là nạn nhân của việc vi phạm đạo luật. Trong khi đó, Brussels sẽ thành lập Văn phòng AI có nhiệm vụ thực thi và giám sát luật pháp đối với các hệ thống AI có mục đích chung.
Trong khi một số nhà nghiên cứu hoan nghênh Đạo luật AI của EU vì tạo ra những cơ chế để kiểm soát những hệ thống AI đang phát triển hỗn loạn, đồng thời khuyến khích khoa học mở và phát triển AI có trách nhiệm, một số khác lại bày tỏ lo ngại về khả năng cản trở sự đổi mới của nó.
Mặc dù luật này bao gồm các điều khoản miễn trừ các mô hình AI được phát triển hoàn toàn cho mục đích nghiên cứu, nhưng vẫn có những lo ngại về những tác động tiềm tàng đối với sự đổi mới. Do đó, các nhà nghiên cứu có thể cần áp dụng các biện pháp thực hành ưu tiên tính minh bạch, trách nhiệm giải trình và giảm thiểu thành kiến để tuân thủ các quy định mới.
Tuy nhiên, giữa những thách thức là cơ hội hợp tác, đổi mới và phát triển công nghệ AI một cách có trách nhiệm và có đạo đức. Vì đạo luật này mới là bước tiến đầu tiên trong việc kiểm soát phát triển trí tuệ nhân tạo một cách có hiệu quả, sẽ còn rất nhiều dư địa cho những quy tắc đang được xem xét hoặc sẽ thành hình trong tương lai.
(VNF) - Mưa lớn kéo dài nhiều giờ liền khiến nhiều tuyến đường trên địa bàn TP. Đà Nẵng ngập nặng. Học sinh phải nghỉ học, nhiều cơ quan cũng cho người lao động nghỉ làm.