Những vấn đề đặt ra trước sự phát triển vũ bão của AI

Công nghệ trí tuệ nhân tạo (AI) phát triển với tốc độ chóng mặt, ngoài việc mang lại tiềm năng to lớn khi được ứng dụng vào các lĩnh vực của đời sống xã hội, còn tiềm ẩn nhiều rủi ro khi những thông tin sai lệch không chỉ ảnh hưởng trực tiếp tới cá nhân mà còn phương hại đến an ninh quốc gia. Thực trạng này đặt ra yêu cầu cấp thiết của việc phải có các tiêu chuẩn quốc tế để đảm bảo ngành công nghệ AI là “đáng tin cậy”.

Tiềm năng và lợi thế

Chuyên gia hàng đầu về AI của Mỹ, Ben Goertzel, nhận định lĩnh vực này có thể thay thế 80% công việc của con người trong những năm tới và đây là điều mang ý nghĩa tích cực bởi con người có thể tìm thấy những điều tốt hơn để làm, thay vì vất vả mưu sinh. Theo ông Goertzel, mô hình “trí tuệ tổng hợp nhân tạo” (AGI) sẽ sớm được hoàn thiện và để giúp máy móc có thể thông minh như con người cần đạt được những tiến bộ vượt bậc trong việc lập trình và huấn luyện AI.

Trên thực tế, nhiều quốc gia trên thế giới đã nhận biết được những tiềm năng và lợi thế to lớn của AI nên không tiếc tiền đầu tư vào lĩnh vực này.

Mỹ hồi đầu tháng 5/2023 thông báo sẽ đầu tư 140 triệu USD để lập 7 trung tâm nghiên cứu về AI và công bố hướng dẫn mới về việc sử dụng công nghệ tiên tiến này. Như vậy, số trung tâm nghiên cứu AI trên toàn nước Mỹ sẽ tăng lên tổng cộng 25 cơ sở. Năm 2022, chính quyền Mỹ đã công bố “Kế hoạch chi tiết cho Dự luật về quyền AI”, sau đó đề ra kế hoạch lập một nguồn tài nguyên quốc gia về nghiên cứu AI. Tháng 2/2023, Tổng thống Joe Biden ký sắc lệnh hành pháp nhằm ngăn chặn sự thiên vị và phân biệt đối xử trong các công nghệ ngay từ khi mới hình thành.

Trong khi đó, tờ The Wall Street Jounal (WSJ) đưa tin, các công ty công nghệ lớn Trung Quốc như Huawei, Baidu và Alibaba đang nghiên cứu các kỹ thuật có thể cho phép họ đạt được hiệu suất AI cao nhất mà ít dùng tới các chip, đồng thời nghiên cứu cách kết hợp các loại chip khác nhau để tránh phụ thuộc vào bất kỳ phần cứng nào. Nghiên cứu và phát triển AI đã trở nên cấp thiết hơn đối với Trung Quốc khi Mỹ tăng cường kiểm soát xuất khẩu đối với các công nghệ tiên tiến như chất bán dẫn và AI. Thời gian gần đây, Trung Quốc đã đẩy nhanh việc sử dụng AI trong nghiên cứu khoa học và công nghệ trong bối cảnh cuộc cạnh tranh với Mỹ đang ngày một nóng lên. Mặc dù Trung Quốc và Mỹ đã đạt được sự ngang bằng trong việc phát triển AI, nhưng các chuyên gia dự đoán, việc triển khai công nghệ này trong các sản phẩm và dịch vụ của Trung Quốc có thể sẽ vượt lên dẫn trước vào năm 2023.

Nắm giữ vị trí dẫn đầu châu Âu về ứng dụng AI trong y tế, Bỉ cũng công bố kế hoạch ngân sách trị giá 20 triệu euro trong năm 2024 để đầu tư phát triển các dự án trong lĩnh vực này. Hy vọng đối với AI trong y tế là bệnh nhân được điều trị nhanh hơn, tốt hơn và với chi phí thấp hơn; các chẩn đoán sớm hơn và chính xác hơn đảm bảo tỷ lệ chữa khỏi bệnh cao hơn, sử dụng các phương pháp điều trị ít nặng nhọc hơn, đặc biệt là nếu chúng được điều chỉnh tốt hơn. Tất cả những ưu điểm này sẽ góp phần cắt giảm chi phí chăm sóc sức khỏe.

Nhiều nước khác cũng tích cực tận dụng những thế mạnh của AI như: Phần Lan phát triển một giải pháp sử dụng AI giúp phát hiện bệnh xuất huyết não, dự kiến sẽ được thương mại hóa trong vòng 2-3 năm tới. Israel nghiên cứu phát triển một “chuyên gia tư vấn ảo” áp dụng trong điều trị ung thư bằng hóa trị và được cá nhân hóa cho từng bệnh nhân. Canada ra mắt một sản phẩm sử dụng AI giúp phòng cháy, chữa cháy trở nên dễ dàng, chính xác và ít tốn kém hơn…

Tiềm ẩn nhiều nguy cơ

AI có thể gây ra mối đe dọa khẩn cấp hơn cả biến đổi khí hậu là nhận định của nhà khoa học tiên phong nghiên cứu về AI, Geoffrey Hinton - được biết đến là một trong những “cha đẻ” của AI. Ông Hinton nằm trong số ngày càng nhiều những người đi đầu trong lĩnh vực công nghệ công khai bày tỏ lo ngại về mối đe dọa từ AI nếu các loại máy móc được trang bị công nghệ thông minh hơn cả con người và kiểm soát Trái Đất. Theo đó, với biến đổi khí hậu, việc đưa ra những lời khuyên về những hành động cần làm dễ hơn nhưng với AI thì mọi thứ không rõ ràng như thế.

Có thể nói, làn sóng lo ngại những nguy cơ từ AI dâng cao sau sự ra mắt vào tháng 11/2022 của ứng dụng ChatGPT của công ty công nghệ OpenAI, với sự hậu thuẫn từ Microsoft. Ứng dụng này nhanh chóng lập kỷ lục phát triển nhanh nhất lịch sử, đạt 100 triệu người dùng có hoạt động hằng tháng chỉ trong 2 tháng. ChatGPT đã chứng tỏ là một đột phá trong lĩnh vực công nghệ và nhiều lĩnh vực khác khi có thể sáng tác thơ, viết bài luận và mô phỏng các cuộc đối thoại từ những gợi ý ngắn gọn nhất. Thành công của ứng dụng ChatGPT đã gây ra "cơn sốt" đầu tư vào lĩnh vực này nhưng những người chỉ trích và giới chuyên gia trong ngành đã phải lên tiếng cảnh báo về rủi ro do AI gây ra. Mối quan ngại chung nhất là khả năng các chatbot có thể tràn ngập các trang web với thông tin sai lệch, các thuật toán sai lệch sẽ tạo ra các tài liệu phân biệt chủng tộc hoặc tự động hóa ứng dụng AI gây ảnh hưởng đến toàn bộ ngành này. 

Chuyên gia Ben Goertzel đánh giá ChatGPT là một hệ thống AI thú vị, song không có khả năng tổng hợp trí tuệ ở trình độ như con người do không có năng lực thực hiện các nhiệm vụ mang tính phức tạp. ChatGPT không thể sáng tạo ra những điều mới mẻ ngoài phạm vi dữ liệu mà con người nạp cho chúng. Đáng chú ý, hệ thống AI này cũng có thể lan truyền thông tin sai lệch khiến nhiều người yêu cầu cấm việc sử dụng chúng. Ông Goertzel cũng bày tỏ lo ngại về các vấn đề xã hội nảy sinh trong giai đoạn chuyển giao việc làm giữa con người và các hệ thống AI. Ông khuyến nghị muốn tạo ra hệ thống AI hữu ích thì xã hội cần phát triển các hệ thống này theo hướng tích cực, việc quản lý các hệ thống AI cần có sự chung tay của cả xã hội, đặc biệt là giữa bối cảnh các công ty đầu tư vào lĩnh vực AI chủ yếu quan tâm tới việc tối đa hóa lợi ích, ít dành sự quan tâm đến các khía cạnh tích cực.

Trong khi đó, có nhiều ý kiến cảnh báo về “nguy cơ tuyệt chủng” do AI gây ra và việc giải quyết những rủi ro này phải là “một ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”. Giới chuyên môn lo ngại nhất là sự gia tăng của cái gọi là trí tuệ nhân tạo tổng quát (AGI) - máy móc có khả năng thực hiện được các chức năng trên phạm vi rộng và có thể phát triển chương trình của riêng chúng. Theo đó, con người sẽ không còn có thể kiểm soát được những cỗ máy siêu thông minh, từ đó có thể dẫn đến những hậu quả thảm khốc đối với hành tinh.

Tổ chức Y tế Thế giới (WHO) cảnh báo cần thận trọng với ứng dụng AI trong chăm sóc sức khỏe cộng đồng, do các dữ liệu được AI sử dụng để đưa ra kết quả có thể bị sai lệch hoặc thiên lệch. WHO nhấn mạnh việc bắt buộc đánh giá rủi ro liên quan sử dụng AI để bảo vệ và thúc đẩy phúc lợi con người, cũng như sức khỏe cộng đồng. Theo đó, các chuyên gia y tế cần phải nâng cao nhận thức và “gióng lên hồi chuông” cảnh báo về những rủi ro và mối đe dọa do AI có thể gây ra và sự hợp tác toàn cầu trong vấn đề này là điều cần thiết.

Cần một sự bảo đảm về pháp lý

Đạo luật AI của Liên minh châu Âu (EU) hiện vẫn đang trong quá trình xem xét. Trong những trường hợp khả quan nhất, đạo luật này sẽ có hiệu lực trong 2,5 - 3 năm tới. Tuy nhiên, giới chuyên môn cho rằng như vậy rõ ràng là quá muộn. Mỹ và EU nên hối thúc ngành công nghệ AI áp dụng một bộ quy tắc ứng xử tự nguyện càng sớm càng tốt để đảm bảo độ tin cậy trong khi các điều luật quản lý đang được xây dựng. Nhóm Các nước công nghiệp phát triển (G7) cũng kêu gọi phát triển các tiêu chuẩn quốc tế để đảm bảo ngành công nghệ AI “đáng tin cậy”, kêu gọi cộng đồng quốc tế tăng cường thảo luận về các chủ đề như quản trị, quyền sở hữu trí tuệ, tính minh bạch và mối nguy từ thông tin sai lệch.

Theo các nhà quan sát, cần có thỏa thuận về AI một cách chi tiết, không phải chỉ dừng ở những tuyên bố chung chung và EU cùng Mỹ cần đóng vai trò hỗ trợ thúc đẩy quá trình này. Nếu EU và Mỹ cùng với các đối tác thân thiện đảm nhận vai trò dẫn dắt thì sẽ tạo ra môi trường giúp thế giới cảm thấy yên tâm hơn và có niềm tin vào sự phát triển nhanh chóng của công nghệ AI.

Vào năm 2021, Ủy ban châu Âu (EC) lần đầu tiên đề xuất một dự luật đầy tham vọng nhằm kiểm soát AI. Nếu dự luật này được thông qua trước cuối năm 2023 thì có thể được ban hành thành luật và có hiệu lực sớm nhất là vào cuối năm 2025. EU muốn trở thành khu vực đầu tiên trên thế giới áp dụng khung pháp lý toàn diện để kiểm soát các rủi ro đi kèm với việc triển khai AI. Đạo luật AI đang được mong đợi tại EU sẽ trở thành luật hoàn chỉnh đầu tiên quản lý công nghệ này, với những quy định xung quanh việc sử dụng công nghệ nhận diện khuôn mặt, kiểm tra sinh trắc và các úng dụng AI khác.

Ngày 27/4/2023, EU đã đạt được thỏa thuận sơ bộ về Đạo luật AI mang tính bước ngoặt của khối, mở đường cho một bộ luật toàn diện đầu tiên trên thế giới về công nghệ này. Theo đó, các công cụ AI sẽ được phân loại theo mức độ rủi ro nhận thức được: từ tối thiểu đến hạn chế, cao và không thể chấp nhận được. Mặc dù các công cụ có rủi ro cao không bị cấm nhưng những người sử dụng chúng sẽ cần phải rất minh bạch trong hoạt động của mình. Các công ty triển khai các công cụ AI sẽ cần xem xét liệu tài liệu có bản quyền có được sử dụng để phát triển hệ thống của họ hay không.

Mới đây nhất, ngày 11/5/2023, các ủy ban phụ trách bảo vệ người tiêu dùng và các quyền tự do dân sự của Nghị viện châu Âu (EP) đã thông qua văn bản dự thảo khẳng định quan điểm cần kiểm soát cách sử dụng AI ở EU song song với thúc đẩy sáng tạo trong lĩnh vực này. Trong tháng 6, văn bản dự thảo sẽ được đưa ra toàn thể nghị viện thông qua trước khi tiếp tục được chuyển tới các nước thành viên EU xem xét và hoàn thiện. Văn bản này bao gồm những ý chính trong đề xuất mà EC đã đưa ra năm 2021, có bổ sung các điều khoản cấm sử dụng công nghệ nhận diện khuôn mặt tại những nơi công cộng, các công cụ sử dụng thuật toán dự báo hành vi tội phạm và các biện pháp minh bạch mới với các ứng dụng AI như ChatGPT. Theo đó, các ứng dụng này phải gửi thông báo lưu ý người dùng rằng sản phẩm của các công cụ này là do máy móc tạo ra, không phải con người. 

Văn bản này cũng có phần nội dung yêu cầu bổ sung các tiêu chí để xác định lĩnh vực có nguy cơ cao nếu ứng dụng AI, qua đó hạn chế quy mô thiết kế công cụ. Các công cụ AI sẽ được phân loại theo mức độ nguy cơ mà mỗi công cụ có thể gây ra, từ mức thấp tới mức không thể chấp nhận được. Các chính phủ và các công ty sử dụng những công cụ này sẽ phải tuân thủ các nghĩa vụ khác nhau tùy theo mức độ nguy cơ. Dù danh sách được EC đề xuất đã bao gồm các trường hợp sử dụng AI trong quản lý cơ sở hạ tầng trọng yếu, giáo dục, nhân lực, trật tự công cộng và nhập cư nhưng các nghị sĩ EP cũng mong muốn bổ sung những ngưỡng quy định phân định những mối đe dọa với an ninh, y tế và các quyền cơ bản.

Hãng tin Reuters nhận định những điều chỉnh được thông qua vào ngày 11/5/2023 kể trên sẽ là bước tiến đầu tiên hướng đến đạo luật kiểm soát AI đầu tiên thế giới.

theo TTXVN

...
  • Tags: