'Khi AI mắc sai lầm, chúng ta không thể bắt AI chịu trách nhiệm'

Nêu rõ thực trạng khi AI mắc sai lầm thì con người không thể bắt AI chịu trách nhiệm, Giáo sư Toby Walsh nhận định đây là lỗ hổng trong mọi hệ thống pháp luật.

Trong hơn bốn thập kỷ nghiên cứu về trí tuệ nhân tạo (AI), Giáo sư Toby Walsh - Đại học New South Wales (Úc), Viện sĩ của Hiệp hội Máy tính Hoa Kỳ, chứng kiến toàn bộ hành trình thăng hoa và biến đổi của công nghệ này: Từ những mô hình sơ khai trong phòng thí nghiệm đến những hệ thống có khả năng tác động trực tiếp đến đời sống hàng tỷ người.

Bên lề sự kiện Tuần lễ Khoa học - Công nghệ VinFuture 2025, Giáo sư Toby Walsh đưa ra nhiều góc nhìn sắc bén, thẳng thắn - như cách ông vẫn kiên trì lên tiếng trong những năm qua về một tương lai AI an toàn và nhân văn hơn.

Giáo sư Toby Walsh - Đại học New South Wales (Úc), Viện sĩ của Hiệp hội Máy tính Hoa Kỳ.

- Thưa Giáo sư, sử dụng AI có trách nhiệm nên là việc được thực hiện tự nguyện hay bắt buộc? Và thực tế, chúng ta cần ứng xử như thế nào với AI?

Tôi tin chắc rằng việc sử dụng AI có trách nhiệm nên là bắt buộc.

Hiện nay có nhiều động cơ lệch lạc, với số tiền khổng lồ được tạo ra nhờ AI, và cách duy nhất để đảm bảo hành vi đúng đắn là áp dụng các quy định nghiêm ngặt, để lợi ích cộng đồng luôn được cân bằng với lợi ích thương mại.

- Khi AI mắc lỗi, ai sẽ chịu trách nhiệm, thưa ông? Đặc biệt là với các tác nhân AI, liệu chúng ta có khả năng sửa cơ chế hoạt động của chúng hay không?

Vấn đề cốt lõi khi AI mắc sai lầm là chúng ta không thể bắt AI chịu trách nhiệm. AI không phải là con người và đây là lỗ hổng trong mọi hệ thống pháp luật trên thế giới. Chỉ con người mới bị chịu trách nhiệm cho các quyết định và hành động của mình.

Bỗng nhiên, chúng ta có một "tác nhân" mới, AI, có thể - nếu chúng ta cho phép - ra quyết định và thực hiện hành động trong thế giới của chúng ta, điều này đặt ra một thách thức: Chúng ta sẽ bắt ai chịu trách nhiệm?

Câu trả lời là phải bắt các công ty triển khai và vận hành hệ thống AI chịu trách nhiệm về hậu quả mà những "cỗ máy" này gây ra.

- Nhiều doanh nghiệp cũng nói về AI có trách nhiệm. Làm sao chúng ta có thể tin tưởng họ? Làm sao chúng ta biết rằng họ thực sự nghiêm túc và toàn diện, chứ không chỉ lấy việc "AI có trách nhiệm" làm chiêu trò PR?

Chúng ta cần tăng cường minh bạch. Điều quan trọng là phải hiểu năng lực và giới hạn của các hệ thống AI. Chúng ta cũng nên "bỏ phiếu bằng cách hành động", tức là lựa chọn sử dụng những dịch vụ có trách nhiệm.

Tôi thực sự tin rằng cách doanh nghiệp sử dụng AI có trách nhiệm sẽ trở thành yếu tố phân biệt trên thị trường, mang lại lợi thế thương mại cho chính họ. Nếu một công ty tôn trọng dữ liệu khách hàng, điều đó sẽ mang lại lợi ích và thu hút khách hàng. Các doanh nghiệp sẽ nhận ra rằng làm đúng không chỉ là vấn đề đạo đức mà còn giúp họ thành công hơn.

Tôi xem đây là cách để phân biệt giữa các doanh nghiệp, và những doanh nghiệp có trách nhiệm là những nơi mà chúng ta có thể yên tâm hợp tác.

- Làm thế nào để AI không gây tác hại độc hại đến trẻ nhỏ và tạo môi trường an toàn cho trẻ nhỏ mỗi khi AI xuất hiện, thưa ông?

Tôi nghĩ rằng chúng ta chưa rút ra nhiều bài học từ mạng xã hội. Nhiều quốc gia giờ đây mới bắt đầu nhận ra rằng mạng xã hội mang lại lợi ích lớn nhưng cũng có nhiều tác hại, đặc biệt ảnh hưởng tới sức khỏe tinh thần, mức độ lo âu và nhận thức sai lệch về ngoại hình của giới trẻ, nhất là các bạn nữ.

Nhiều quốc gia đã bắt đầu triển khai các biện pháp để giải quyết vấn đề này. Ở Australia, từ ngày 10/12, quy định về độ tuổi sử dụng mạng xã hội sẽ có hiệu lực.

Tôi cho rằng chúng ta cũng cần những biện pháp tương tự cho AI. Chúng ta đang xây dựng những công cụ có thể mang lại tác động tích cực nhưng cũng có thể gây tác hại tương tự, và chúng ta cần bảo vệ trí tuệ và tâm hồn các em khỏi những tác động tiêu cực này.

Bên cạnh đó, tôi hy vọng các quốc gia cũng sẽ ban hành các quy định quản lý nghiêm ngặt mạng xã hội, từ đó tạo ra một môi trường thật sự an toàn cho mọi người khi sử dụng AI.

- Không chỉ trẻ nhỏ mà ngay cả người lớn cũng đứng trước những nguy cơ do chính AI gây ra. Vậy làm thế nào để con người có thể sử dụng AI để cải thiện cuộc sống chứ không phải là một mối nguy?

AI ứng dụng trong nhiều lĩnh vực, giúp cải thiện chất lượng cuộc sống của chúng ta. Trong y tế, AI giúp phát hiện các loại thuốc mới. Trong giáo dục, AI cũng mang lại nhiều lợi ích tích cực.

Tuy nhiên, trao quyền tiếp cận AI mà không có biện pháp bảo vệ đầy đủ là quá rủi ro. Chúng ta đã thấy những vụ kiện ở Hoa Kỳ, cha mẹ kiện các hãng công nghệ khiến con cái họ tự tử sau khi tương tác với các chatbot AI.

Mặc dù tỷ lệ người dùng ChatGPT gặp các vấn đề về sức khỏe tâm thần chỉ chiếm vài phần trăm, nhưng với hàng trăm triệu người dùng, con số thực tế lên tới hàng trăm nghìn người.

Giáo sư Toby Walsh chia sẻ tại Tuần lễ Khoa học - Công nghệ VinFuture 2025.

- Việt Nam là một trong số ít những quốc gia đang xem xét ban hành Luật trí tuệ nhân tạo. Giáo sư đánh giá như thế nào về việc này? Theo đánh giá của Giáo sư thì với những quốc gia đang phát triển như Việt Nam thì đâu là những thách thức đối với vấn đề đạo đức và an ninh an toàn trong việc phát triển AI?

Việt Nam là một trong số quốc gia tiên phong sẽ có Luật chuyên biệt về Trí tuệ nhân tạo. Điều này quan trọng bởi mỗi quốc gia đều có giá trị và văn hóa riêng, và cần luật pháp để bảo vệ những giá trị đó.

Giá trị và văn hóa của Việt Nam khác với các nước. Chúng ta không thể trông chờ các công ty công nghệ từ nước ngoài tự động bảo vệ văn hóa, ngôn ngữ Việt Nam. Những điều đó phải do chính Việt Nam chủ động bảo vệ.

Trong quá khứ, nhiều quốc gia đang phát triển đã trải qua giai đoạn bị đô hộ về mặt vật lý. Nếu không cẩn thận, chúng ta có thể sẽ trải qua giai đoạn đô hộ số. Dữ liệu của các bạn sẽ bị khai thác, và các bạn sẽ trở thành nguồn lực rẻ tiền.

Điều này có nguy cơ xảy ra nếu các quốc gia đang phát triển phát triển ngành AI theo cách chỉ khai thác dữ liệu mà không kiểm soát cũng như bảo vệ quyền lợi của mình.

- Theo Giáo sư, làm sao để khắc phục được tình trạng này?

Rất đơn giản, hãy đầu tư vào con người. Nâng cao kỹ năng cho mọi người, đảm bảo họ có hiểu biết về AI. Hỗ trợ các doanh nhân, doanh nghiệp AI, hỗ trợ các trường đại học. Hãy tham gia một cách chủ động. Thay vì chờ đợi các quốc gia khác chuyển giao công nghệ hay định hướng cho chúng ta, chúng ta phải chủ động và làm chủ công nghệ.

Thứ hai, chúng ta cần vận động mạnh mẽ các nền tảng mạng xã hội để họ tạo ra môi trường an toàn cho người dùng tại Việt Nam, đồng thời không ảnh hưởng đến nền dân chủ của đất nước.

Trên thực tế, có rất nhiều ví dụ cho thấy các nội dung trên mạng xã hội đã tác động đến kết quả bầu cử, gây chia rẽ nội bộ các quốc gia và thậm chí kích động khủng bố.

Tôi đã dành 40 năm nghiên cứu về trí tuệ nhân tạo. Trong 30 năm đầu, tôi chỉ quan tâm đến việc làm sao để phát triển AI ngày càng mạnh hơn. Trong 10 năm gần đây, tôi ngày càng quan tâm và lên tiếng về việc phát triển AI một cách có trách nhiệm.

- Xin trân trọng cảm ơn Giáo sư!

Link nội dung: https://tiepthigiadinhvietnam.com/khi-ai-mac-sai-lam-chung-ta-khong-the-bat-ai-chiu-trach-nhiem-a90060.html