Làm sao để kiểm soát được những tác động của AI, vốn đang phát triển và biến đổi nhanh như vũ bão trên toàn cầu, hiện đang là vấn đề nóng khiến các chính phủ trên thế giới phải “đau đầu” tìm giải pháp.
Bước tiến vượt bậc đi kèm rủi ro
Năm 2023 đến nay đã chứng kiến bước tiến vượt bậc về khả năng của AI và việc sử dụng công nghệ này thông qua chatbot, nhân bản giọng nói, ứng dụng video... Trong thời điểm đầy thách thức hiện nay, AI có thể tạo ra những tiến bộ vượt bậc cho nhân loại, ví dụ như trong các lĩnh vực y tế công, giáo dục, ứng phó với biến đổi khí hậu... Tuy nhiên, tất cả điều này phụ thuộc vào việc khai thác AI một cách có trách nhiệm. AI phát triển như vũ bão cũng mang lại nhiều quan ngại về những ảnh hưởng mà loại công nghệ này, đặc biệt là những AI tiên tiến, có thể gây ra đối với đời sống xã hội.
Là một trong số những AI tiên tiến nhất hiện nay, mô hình AI tạo sinh của OpenAI là một loại AI tạo ra văn bản, hình ảnh, âm thanh, video, mã lập trình và các nội dung khác, đáp ứng các nội dung yêu cầu đầu vào. Trong khi đó, các hãng truyền thông lớn hiện đứng trước thách thức đến từ cái gọi là AI tổng quát - tạo ra nội dung mới dựa trên dữ liệu trong quá khứ - mà tập đoàn Google và các công ty AI đang thử nghiệm. AI tổng quát là loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới như văn bản, hình ảnh, âm thanh và video. Với công nghệ này, người dùng có thể không bao giờ phải đọc tin tức trong đời, vì trí tuệ nhân tạo có thể xử lý tất cả thông tin trên web và đưa ra bản tóm tắt theo yêu cầu.
Giới chuyên gia đã cảnh báo về những tác hại tiềm tàng của AI về thông tin sai lệch, tư tưởng phân biệt đối xử, xâm phạm quyền riêng tư, gian lận và nhiều hành vi phạm quyền con người khác. AI cũng gây ra những rủi ro tiềm ẩn bao gồm quấy rối, kích động thù hận và lạm dụng trực tuyến cũng như đe dọa sự an toàn của trẻ em, quyền riêng tư và nguy cơ thao túng thông tin.
Các mô hình AI tiên tiến nhất hiện nay quá mạnh và có sức ảnh hưởng rất lớn, đòi hỏi phải có sự giám sát trong quá trình phát triển. Do đó, chính phủ và các doanh nghiệp cần nhanh chóng đầu tư vào an toàn trong AI bởi lĩnh vực này đang phát triển nhanh hơn nhiều so với các biện pháp phòng ngừa hiện nay. Theo ý kiến của các nhà nghiên cứu hàng đầu về AI, các nước không nên tập trung quá cụ thể vào các mối đe dọa hiện hữu của AI mà cần hướng tới giải quyết các vấn đề cấp bách hiện tại. Các công ty AI và chính phủ nên dành ít nhất 1/3 ngân sách cho nghiên cứu và phát triển AI để đảm bảo an toàn và sử dụng các hệ thống đúng mục đích. Chính phủ các nước cũng nên buộc các công ty phải chịu trách nhiệm pháp lý cho những tổn hại có thể ngăn ngừa và lường trước từ các hệ thống AI của họ.
Cần có sự quản lý chặt chẽ
Sự phát triển mạnh mẽ của AI hứa hẹn về bước tiến dài trong công nghệ phục vụ con người. Tuy nhiên, ngày càng có nhiều quan ngại về những ảnh hưởng mà loại công nghệ này có thể gây ra đối với xã hội. Thực tế đó đòi hỏi giới hoạch định chính sách trên thế giới cần nỗ lực thiết lập quy định quản lý AI.
Mỹ ngày 13/3/2024 đã trở thành nước đi tiên phong trong việc giới thiệu dự thảo nghị quyết lần đầu tiên về AI ra Liên hợp quốc (LHQ). Bản dự thảo của Mỹ hướng đến san lấp khoảng cách số giữa các nước, bảo đảm tất cả các bên đều có vị thế bình đẳng trong thảo luận về AI cũng như có được công nghệ và tiềm lực để tận dụng lợi ích mà AI đem lại, trong đó có khám chữa bệnh, dự báo lũ lụt và huấn luyện nhân công lao động thế hệ mới. Dự thảo nghị quyết ghi nhận sự tăng tốc nhanh chóng của việc phát triển và sử dụng AI, đồng thời nhấn mạnh sự khẩn thiết của việc đạt được đồng thuận toàn cầu về các hệ thống AI an toàn, đáng tin cậy. Dự thảo cũng nhấn mạnh sự cần thiết của việc tiếp tục thảo luận các cách tiếp cận đối với quản trị các hệ thống AI.
Dự thảo sẽ sớm được Đại hội đồng LHQ xem xét thông qua vào cuối tháng 3/2024. Theo Cố vấn An ninh Quốc gia Mỹ Jake Sullivan, nếu được thông qua, nghị quyết sẽ là bước tiến lịch sử nhằm tạo dựng AI an toàn, an ninh và tin cậy trên toàn thế giới.
Cùng ngày 13/3, các nhà lập pháp tại Nghị viện châu Âu (EP) đã có bước phê chuẩn cuối cùng đối với khuôn khổ pháp lý toàn diện nhằm kiểm soát AI, bao gồm các hệ thống AI mạnh mẽ như ChatGPT của OpenAI. Sự kiện này có tầm quan trọng rất lớn, tiến gần hơn đến việc thông qua đạo luật đầu tiên về AI của châu Âu. Văn bản này cần được cơ quan lập pháp của 27 quốc gia thành viên Liên minh châu Âu (EU) thông qua vào tháng 4/2024.
Theo dự luật, Ủy ban châu Âu (EC) đề xuất thiết lập bộ tiêu chí phân loại các hệ thống AI dựa trên mức độ rủi ro mà chúng có thể gây ra cho người dùng, gồm các cấp độ: Rủi ro không thể chấp nhận được, rủi ro cao, rủi ro hạn chế, rủi ro thấp. Những trường hợp không tuân thủ các quy định có thể bị phạt tối đa 35 triệu euro hoặc 7% doanh thu toàn cầu, tùy thuộc hành vi vi phạm và quy mô của các công ty. EP cũng đã đề xuất thành lập Văn phòng AI, một cơ quan mới của EU để hỗ trợ việc áp dụng hài hòa đạo luật AI, cung cấp hướng dẫn và điều phối các cuộc điều tra chung xuyên biên giới.
Nghị sĩ Italy Brando Benifei, người thúc đẩy việc thông qua dự luật này tại EP, nhấn mạnh đây là dấu mốc lịch sử trên con đường dài phê chuẩn các quy định về AI. Đây là quy định đầu tiên trên thế giới vạch ra lộ trình rõ ràng hướng tới sự phát triển AI an toàn và lấy con người làm trung tâm.