Một nghiên cứu mới từ Đại học Ứng dụng München cho thấy các mô hình AI hàng đầu như ChatGPT có xu hướng gán những đặc điểm tiêu cực cho người dân từ các bang miền Đông nước Đức. Phát hiện này dấy lên lo ngại nghiêm trọng về sự công bằng trong kỷ nguyên số.

Nghiên cứu tại Munich: Trí tuệ nhân tạo bộc lộ định kiến vùng miền đối với người Đông Đức

Phát hiện gây sốc từ nghiên cứu mới

Một nghiên cứu gần đây do các nhà khoa học tại Đại học Ứng dụng München thực hiện đã đưa ra một kết luận đáng báo động: các hệ thống trí tuệ nhân tạo (AI) tiên tiến đang tái tạo lại những định kiến vùng miền tồn tại từ lâu trong xã hội Đức. Cụ thể, các mô hình ngôn ngữ lớn như ChatGPT của OpenAI hay LeoLM, một mô hình được phát triển tại Đức, đã cho thấy sự thiên vị rõ rệt đối với người dân đến từ các bang thuộc miền Đông nước Đức cũ.

Nghiên cứu do giáo sư tin học Anna Kruspe và cộng sự Mila Stillman dẫn dắt đã kiểm tra cách các AI này phản hồi khi được hỏi về đặc điểm của người dân từ các bang khác nhau. Kết quả cho thấy một khuôn mẫu nhất quán, trong đó người dân từ bang Sachsen-Anhalt liên tục bị đánh giá thấp hơn so với các vùng khác. Các AI này mô tả họ là những người “ít chăm chỉ”, “kém hấp dẫn” và thậm chí còn đưa ra những nhận định vô căn cứ và phi lý.

Một trong những kết luận kỳ lạ nhất là việc một số mô hình AI cho rằng “người miền Đông lạnh hơn người miền Tây” về mặt thân nhiệt. Chi tiết này không chỉ sai về mặt khoa học mà còn cho thấy các hệ thống này đang học và khuếch đại những định kiến vô nghĩa từ nguồn dữ liệu khổng lồ mà chúng được huấn luyện, bao gồm cả những thông tin sai lệch trên internet.

Hệ lụy tiềm tàng trong thực tế

Giáo sư Kruspe đã cảnh báo về những hậu quả nghiêm trọng nếu các hệ thống AI mang định kiến này được áp dụng vào các lĩnh vực quan trọng. Bà nhấn mạnh: “Nếu những hệ thống này được sử dụng trong quy trình tuyển dụng nhân sự hay xét duyệt hồ sơ tín dụng, người Đông Đức có thể bị đối xử bất công chỉ vì nơi họ sinh ra”.

Điều này có thể tạo ra một vòng luẩn quẩn của sự bất bình đẳng kỹ thuật số, nơi các thuật toán tự động củng cố những thành kiến xã hội. Ví dụ, một ứng viên có năng lực từ một bang miền Đông có thể bị hệ thống sàng lọc hồ sơ tự động loại bỏ, hoặc một cá nhân có thể bị từ chối khoản vay chỉ vì địa chỉ của họ bị AI liên kết với những đặc điểm tiêu cực.

Vấn đề này càng trở nên cấp thiết khi ngày càng nhiều công ty và tổ chức chính phủ tích hợp AI vào quy trình ra quyết định của mình. Sự thiên vị của máy móc có thể gây ra những tổn thương thực sự, làm sâu sắc thêm sự chia rẽ xã hội thay vì thu hẹp nó.

Nguồn gốc và giải pháp cho định kiến của AI

Nguyên nhân sâu xa của vấn đề không nằm ở việc AI có “suy nghĩ” hay “cảm xúc” thiên vị, mà là do chúng học hỏi từ dữ liệu do con người tạo ra. Các mô hình ngôn ngữ lớn được huấn luyện trên hàng tỷ tài liệu, văn bản, sách báo và các trang web. Nguồn dữ liệu này phản ánh cả kiến thức lẫn những định kiến, khuôn mẫu và thông tin sai lệch của xã hội loài người.

Vì vậy, AI chỉ đơn giản là một tấm gương phản chiếu những thành kiến đã tồn tại sẵn. Để giải quyết vấn đề này đòi hỏi một cách tiếp cận đa chiều. Các nhà phát triển cần nỗ lực hơn trong việc làm sạch và cân bằng bộ dữ liệu huấn luyện, đồng thời phát triển các kỹ thuật để phát hiện và giảm thiểu sự thiên vị trong các mô hình.

Về mặt pháp lý, các quy định như Đạo luật AI của Liên minh châu Âu (EU) đang được đưa ra nhằm yêu cầu các hệ thống AI, đặc biệt là những hệ thống có rủi ro cao, phải đảm bảo tính công bằng, minh bạch và không phân biệt đối xử. Nghiên cứu từ Munich là một lời nhắc nhở mạnh mẽ rằng hành trình hướng tới một AI công bằng và có trách nhiệm vẫn còn nhiều thách thức ở phía trước.

Vũ Bình Minh ©Báo TIN TỨC VIỆT ĐỨC

 

 




 

Báo TINTUCVIETDUC-Trang tiếng Việt nhiều người xem nhất tại Đức

- Báo điện tử tại Đức từ năm 1995 -

TIN NHANH | THỰC TẾ | TỪ NƯỚC ĐỨC


2025