(Ảnh minh họa: Metamorworks/ShutterStock)
Ông Lee nhắc đến nhận xét gần đây của nhà khoa học máy tính người Anh Geoffrey Hinton (còn có biệt danh là “cha đỡ đầu” của AI), người vừa rời vị trí phó chủ tịch và kỹ sư cấp cao tại Google.
Trong một cuộc phỏng vấn với tờ The New York Times, ông Hinton đã gióng lên hồi chuông cảnh báo về khả năng trí tuệ nhân tạo (AI) có thể tạo ra những hình ảnh và văn bản giả đến mức một người bình thường sẽ “không thể biết đâu là thật nữa.”
Ông Lee nhận xét: “Điều chính đáng cần quan tâm là khả năng AI ChatGPT, hay các AI khác nói chung, được sử dụng để truyền bá thông tin giả và thông tin sai lệch trên Internet.”
“Tuy nhiên bây giờ, hãy tưởng tượng một chính phủ nào đó chịu trách nhiệm về công nghệ này hoặc các chính phủ mang tính áp bức như Trung Quốc và Nga [sở hữu] công nghệ này. Một lần nữa, nó (AI) đang được huấn luyện bởi con người. Ngay bây giờ, chúng ta có Google và Microsoft, những ‘gã’ có động cơ lợi nhuận đang huấn luyện công nghệ này. Nếu bây giờ, [họ] kết hợp với một chính phủ, và khi đó nó sẽ trở thành một mối đe dọa lớn hơn nhiều”, ông Lee phát biểu trên chương trình “China in Focus” của Đài truyền hình NTD.
Ông bày tỏ lo ngại rằng Đảng Cộng sản Trung Quốc (ĐCSTQ) có thể gia tăng các hành động vi phạm nhân quyền thông qua việc tạo điều kiện thuận lợi cho AI.
“Nếu quý vị nhìn thấy công nghệ này nằm trong tay của một chính phủ, như Trung Quốc và ĐCSTQ, hãy tưởng tượng họ sẽ lập trình công nghệ để đàn áp hoặc cấm cản nhân quyền, đồng thời kiểm duyệt các bài đăng và nhận diện những người bất đồng chính kiến trên Internet, v.v. rằng họ có thể tìm thấy và bắt giữ những người đó, thì điều này sẽ trở thành một mối đe dọa lớn.”
Theo ông Lee, công nghệ AI cũng có thể cho phép chế độ cộng sản đẩy mạnh chiến dịch tung thông tin sai lệch trên mạng xã hội ở Mỹ với tốc độ chưa từng thấy.
“Hãy tưởng tượng hiện tại quý vị có hơn 100 triệu người dùng Tiktok ở Hoa Kỳ đang bị ảnh hưởng bởi Trung Quốc và ĐCSTQ thông qua nền tảng này. Nhưng bây giờ, hãy nghĩ theo hướng này, họ đang bị ảnh hưởng với tốc độ của một chiếc máy bay phản lực – [nếu] quý vị thêm AI vào đó, sau đó họ có thể bị ảnh hưởng với tốc độ ánh sáng. Giờ đây quý vị có thể tiếp cận hàng triệu người, thật ra là hàng tỷ người, theo đúng nghĩa đen chỉ trong vài giây và thông tin sai lệch có thể bị tung ra ngoài.”
“Và đó là nơi mà nó (AI) trở nên rất đáng sợ… làm thế nào mà nó có thể được sử dụng cho mục đích chính trị và/hoặc được sử dụng bởi những kẻ xấu, bao gồm cả các băng đảng ma túy và những tên tội phạm mà rồi cũng có thể có quyền truy cập vào công nghệ này.”
Nguy cơ mất việc làm
Ông Lee chỉ ra rằng ông Hinton cũng bày tỏ lo ngại về việc những ‘gã khổng lồ công nghệ’ đang tập trung vào AI.
“Một trong những lo ngại của ông ấy là Microsoft đã tung ra AI ChatGPT mở, trước chatbot Bark của Google, và ông ấy cảm thấy rằng Google đang gấp rút tung ra thị trường để cạnh tranh với Microsoft”, trích lời ông Lee.
“Một mối quan tâm lớn khác là vấn đề mất việc làm… công nghệ này có thể và sẽ loại bỏ rất nhiều việc làm ngoài kia, điều đó đang trở thành một mối lo ngại lớn hơn”, ông Lee phân tích, đồng thời cho biết thêm rằng AI có thể loại bỏ những công việc “mà một chatbot máy tính tự động có thể đảm nhận, không chỉ trong lĩnh vực dịch vụ khách hàng, mà còn trong lĩnh vực lập trình máy tính.”
Giảm thiểu các mối đe dọa
Ông Lee đã định nghĩa ChatGPT “về cơ bản là một cỗ máy chuyển đổi (transformer) và nó được lập trình bởi con người và thông qua huấn luyện”.
Vì vậy, ông coi yếu tố con người là mối quan tâm lớn nhất.
“Về cơ bản, AI giống như một đứa trẻ sơ sinh; nó có thể được lập trình cho mục đích tốt, giống như một đứa trẻ. Nếu cha mẹ nuôi dạy đứa trẻ đó với nhiều tình yêu thương, sự quan tâm và tôn trọng, thì đứa trẻ lớn lên sẽ biết yêu thương, quan tâm và tôn trọng. Nhưng nếu nó được nuôi dưỡng như một con vật hoang dã, và lớn lên trong tự nhiên, giống như chỉ để AI tự học hỏi từ Internet mà không có sự kiểm soát hay tham số nào, thì quý vị không biết mình sẽ nhận được gì từ nó”, ông Lee so sánh.
Để giảm thiểu những mối đe dọa như vậy, ông Lee đề nghị các cơ quan quản lý am hiểu công nghệ này ở cấp độ chi tiết hãy làm việc với các công ty để xem cách họ lập trình nó và thuật toán nào đã được sử dụng.
“Và họ phải đảm bảo rằng họ đang huấn luyện nó với các thông số phù hợp để nó không trở thành mối nguy hiểm không chỉ cho chính họ mà còn cho khách hàng của họ.”
Vy An (Theo The Epoch Times)