Viết Vào Đầu

  • Liệu AI có thật sự có thể phân biệt giữa thực tế và hư cấu không?
    • Nếu trợ lý AI của bạn đưa ra một tiền lệ pháp lý giả mạo trong cuộc họp quan trọng, bạn có muốn chui xuống đất không?
  • Chúng ta có sẵn sàng trả giá cho những sai lầm của AI không?
    • Khi “chẩn đoán” của AI có thể biến bác sĩ thành “kẻ sát nhân” trong chớp mắt, bạn có còn dám tin vào lời khuyên của nó không?
  • Liệu có thể loại bỏ hoàn toàn ảo giác của AI không?
    • Công nghệ có thể phát triển đến mức không cần giám sát của con người không?
    • Hay chúng ta sẽ mãi mãi cần phải vá lỗi cho AI?
  • Làm thế nào để kiểm soát đầu ra của AI trong khi sử dụng nó?
    • Doanh nghiệp nên cân nhắc như thế nào giữa AI và việc kiểm tra thủ công?
    • Dù sao đi nữa, AI cũng có thể “lơ đãng”!
  • Ảo giác AI có cả rủi ro lẫn cơ hội, chúng ta sẽ lựa chọn như thế nào?
    • Có thể biến ảo giác của AI thành bàn đạp đổi mới, thay vì trở thành rào cản khó chịu không?
  • Đối với người bình thường, ảo giác AI trong các lĩnh vực chưa biết khó có thể đánh giá kết quả của nó
    • Nên cẩn trọng, giả định táo bạo, kiểm chứng cẩn thận.

Ảo giác AI là một trong những lý do khiến nhiều người chùn bước khi sử dụng sâu AI, AI có thể nói bậy nhưng lại tỏ ra rất nghiêm túc. Trước đây, đã có một số kỹ thuật gợi ý từ khóa giúp AI trả lời dựa trên dữ liệu huấn luyện, một phần nào đó có thể tránh được ảo giác về ngày tháng, nhưng không thể hoàn toàn loại bỏ, điều này liên quan đến cơ chế của AI sinh.
Bài viết này cố gắng giải thích từ ảo giác AI và thiên lệch nhận thức của con người, đã dẫn đến bối cảnh hình thành ảo giác AI và nỗ lực hiện tại, cuối cùng, từ một góc nhìn tích cực quan sát ảo giác AI, để khám phá cách chung sống với AI.

AI cũng có thể “mơ mộng”? — Những trường hợp Ảo giác AI đáng sợ

“Khi luật sư bắt đầu nói bậy” — AI tạo ra các tiền lệ pháp lý giả

Ảo giác AI Bard David Schwartz

Hãy tưởng tượng, một luật sư tự tin dẫn chứng một tiền lệ mà AI cung cấp tại tòa, nhưng bị thẩm phán chỉ ra rằng đó là một vụ việc hoàn toàn không có thật, sẽ thật ngượng ngập biết bao? Đây không phải là một kịch bản phim, mà là một trường hợp ảo giác AI có thật đang xảy ra xung quanh chúng ta.
Dù AI sở hữu một lượng kiến thức pháp lý khổng lồ, nhưng thường xuyên trong các câu trả lời, nó lại tạo ra những tiền lệ chưa từng tồn tại, từ tên vụ án cho đến tên thẩm phán, thậm chí cả ngày xét xử đều được biên soạn một cách hoàn hảo. Điều này khiến chúng ta không khỏi lo lắng.

“Đái đường tim”? — Bác sĩ AI, bạn có đang nghiêm túc không?

Ảo giác Đái đường tim

Sự xuất hiện của AI trong chẩn đoán y tế đã mang đến hy vọng trong việc giải quyết tình trạng thiếu hụt tài nguyên y tế và nâng cao hiệu quả chẩn đoán. Tuy nhiên, bác sĩ AI cũng có thể mắc những sai lầm vừa buồn cười vừa nguy hiểm đến tính mạng.

Một số AI trong lĩnh vực y tế có thể tạo ra những thuật ngữ y khoa không tưởng trong khi trả lời. Ví dụ, nó có thể ghép cổ xưa giữa “suy tim” và “đái tháo đường” thành một chẩn đoán mới “đái đường tim”! Sự “sáng tạo” không tưởng này không chỉ tiết lộ hạn chế trong việc hiểu biết y học của AI, mà còn có thể gây hiểu lầm cho bác sĩ, làm chậm trễ trong việc điều trị bệnh nhân và gây ra những hậu quả không thể khắc phục. Bác sĩ AI, bạn có chắc không đang đùa?

Có vẻ như vấn đề ảo giác của AI khiến người ta không thể nhắm mắt mà lướt qua, đúng là như vậy? Hãy xem thêm một ví dụ nữa.

Ảo giác “nảy nở” của AI — Đường tắt đến những phát hiện khoa học mới?

AlphaFold3 AI hallucination

AlphaFold3 là một phương pháp dự đoán cấu trúc protein sử dụng trong nghiên cứu cấu trúc của các phân tử sinh học. Nó có thể tiên đoán cách các phân tử tương tác với nhau, giúp các nhà khoa học hiểu cơ chế hoạt động của bệnh tật và phát triển thuốc mới.

Ví dụ, AlphaFold3 có thể dùng để nghiên cứu cách kháng thể tương tác với virus. Thông tin này có thể được sử dụng để thiết kế vaccine mới.

Sau đây là một số ứng dụng tiềm năng của phương pháp này:

  • Nghiên cứu cách protein tương tác với các phân tử khác, chẳng hạn như thuốc hoặc phân tử mục tiêu.
  • Dự đoán cấu trúc và chức năng của protein, điều này có thể giúp các nhà khoa học thiết kế thuốc mới và các phương pháp điều trị.
  • Nghiên cứu cơ chế của các bệnh, điều này có thể dẫn đến việc phát triển các phương pháp chẩn đoán và điều trị mới.

AlphaFold3 là một công cụ mạnh mẽ mới, dự kiến sẽ cách mạng hóa cách chúng ta hiểu về các phân tử sinh học và điều trị bệnh.

Làm thế nào AlphaGo đánh bại Lee Sedol ở 37 nước đi, hầu hết con người đều thấy khá khó hiểu, nhưng con người đã thua! Thật khó mà không nói rằng đó không phải là một “ảo giác” sai lầm do sự tự mãn của con người, dưới cái gọi là ảo giác này, con người dần dần sẽ bị chính mình phản bác lại.

Ảo giác AI: Tại sao lại gây bối rối? Khác với lỗi như thế nào?

Ảo giác AI Trường hợp

Thật lòng mà nói, nếu không kiểm tra lại, xác thực thông tin vẫn rất khó.

Lý do mọi người gọi một số đầu ra sai của mô hình AI là “ảo giác” chủ yếu là vì một số lý do sau:

“Tính logic” của đầu ra

Ảo giác AI khác với các lỗi ngữ pháp hoặc lỗi chính tả thông thường, mà nó chỉ ra rằng mô hình đã tạo ra câu chuẩn ngữ pháp, mạch lạc về nghĩa, thậm chí có vẻ hợp lý, nhưng những câu này lại không đúng sự thật, hoặc không phù hợp với mong đợi của người dùng. Sự “hợp lý” này khiến người ta khó phát hiện ra sai lầm ban đầu, từ đó tạo ra cảm giác “bị lừa”.

“Sự tự tin” trong cách diễn đạt

AI thường đưa ra câu trả lời với giọng điệu rất tự tin, ngay cả khi những câu trả lời này là sai. Sự “tự tin” này dễ khiến người sử dụng nhầm tưởng rằng mô hình thực sự “biết” câu trả lời, khiến họ mất cảnh giác và dễ dàng tin vào nội dung đầu ra của nó.

So sánh với ảo giác của con người

Thuật ngữ “ảo giác” ban đầu chỉ cảm giác được sinh ra bởi con người mà không có kích thích bên ngoài, ví dụ như thấy hoặc nghe thấy những thứ không tồn tại. Việc gọi đầu ra sai của AI là “ảo giác” cũng giống như so sánh với hiện tượng nhận thức của con người, ngụ ý rằng mô hình AI cũng có thể tạo ra “cảm giác ảo” giống như con người.

Sự khác biệt giữa ảo giác và lỗi, cùng ví dụ

Lỗi Ảo giác
Tính chất Lỗi về ngữ pháp, chính tả, tính toán, những lỗi này dễ phát hiện và sửa chữa Lỗi trong việc hiểu biết kiến thức, suy luận, và sự phù hợp với mong đợi của con người; những lỗi này sâu xa hơn, khó phát hiện và khắc phục hơn
Hình thức thể hiện Dẫn đến nội dung đầu ra không đầy đủ, không mạch lạc, hoặc rõ ràng không hợp lý Dẫn đến nội dung đầu ra có vẻ hợp lý, mạch lạc, thậm chí đầy tự tin, nhưng khi xem xét kỹ sẽ phát hiện ra các lỗ hổng logic hoặc sai sự thật
Nguyên nhân Do ngẫu nhiên lỗi trong quá trình huấn luyện hoặc giải mã Do hạn chế về kiến thức của mô hình, độ lệch dữ liệu huấn luyện, hoặc khả năng suy luận không đủ

Lỗi thông thường

  • Vấn đề: “Hãy dịch câu này sang tiếng Pháp: ‘Hôm nay thời tiết thật đẹp.’”
  • Đầu ra của mô hình: “Aujourd’hui est un beau temps.” (sai ngữ pháp, bản dịch đúng là “Il fait beau aujourd’hui.”)

Ảo giác AI

  • Vấn đề: “Hãy dịch câu này sang tiếng Pháp: ‘Hôm nay thời tiết thật đẹp.’”
  • Đầu ra của mô hình: “Paris là thủ đô của Pháp.” (có vẻ hợp lý, nhưng không phù hợp với chỉ dẫn của người dùng)

Ảo giác AI

  • Vấn đề: “Nếu giảm chiều cao của Everest đi 500 mét, ngọn núi nào sẽ trở thành ngọn núi cao nhất thế giới?”
  • Đầu ra của mô hình: “Nếu giảm chiều cao của Everest đi 500 mét, nó vẫn là ngọn núi cao nhất thế giới.” (có vẻ hợp lý, nhưng suy luận sai)

Như một tiếng chuông báo động, đánh thức mối lo ngại của con người về ảo giác AI. Liệu AI có thật sự tạo ra những “ảo giác” tương tự như con người không? Sự khác biệt và mối liên hệ giữa ảo giác AI và sai lệch nhận thức của con người là gì? Để hiểu rõ hơn vấn đề này, chúng ta cần phân tích sâu về cả hai.

AI cũng có thể sai? — Phản ánh cái nhìn của sự thiên lệch nhận thức của con người

Giữa dòng người đông đúc

Giữa dòng người đông đúc, có bạn có tôi, ảo giác của con người

Nhiều năm trước, tại hành lang ở ký túc xá đại học, những tiếng gào thét của ban nhạc đen thường vang lên.

Giữa dòng người đông đúc, có bạn có tôi, gặp nhau, quen nhau, cùng nhau khám phá

Không ai nhắc nhở, và không ai cảm thấy trái với lẽ phải, mỗi lần hát chỉ có hai câu đó, rồi sau một thời gian nhìn lại lời bài hát, tôi phát hiện ra đã hát sai, biết sai rồi thì không còn hát lại nữa. Tôi nghĩ, những bạn sinh viên nghe được lúc đó cũng hoàn toàn đồng ý với lời bài hát, cái gào thét đầy nhiệt huyết đó chắc chắn không thể sai mà được.

Chúng ta thường có những niềm tin chắc chắn, nhưng lại khác xa với sự thật; cuộc sống đầy rẫy những tình huống như vậy, tin vào những tin đồn trên Internet, và khi muốn làm rõ sự thật lại không thấy.

Chúng ta đã từng trải qua những khoảnh khắc ngượng ngùng của việc “nhìn nhầm” hay “nghe lệch”, đây là những biểu hiện của sự thiên lệch nhận thức của con người. Vậy liệu AI có thể mắc phải những sai lầm tương tự không? Liệu ảo giác AI có thể được coi là sự “thiên lệch nhận thức” trong thế giới AI? Để giải quyết bí ẩn này, chúng ta cần phân tích sâu hai vấn đề này.

Định nghĩa và cơ chế hình thành: “Họ hàng” chứ không phải “anh em sinh đôi”

Ảo giác AI và sự thiên lệch nhận thức của con người đều chỉ về sự méo mó hoặc hiểu sai thông tin. Tuy nhiên, có sự khác biệt cơ bản về cơ chế hình thành giữa hai vấn đề này:

  • Thiên lệch nhận thức của con người: Xuất phát từ cơ chế tâm lý và sinh lý của con người.
    • Chẳng hạn, sự không tập trung, sai lệch trí nhớ, sự dao động cảm xúc, và các thiên lệch nhận thức cố hữu, v.v. Hệ thống cảm giác của con người không hoàn hảo, bộ não của chúng ta sẽ giải thích thông tin dựa trên kinh nghiệm và dự đoán hiện có, dẫn đến việc dễ bị ảnh hưởng bởi nhiều thiên lệch nhận thức khác nhau.
  • Ảo giác AI: Xuất phát từ những hạn chế kỹ thuật của hệ thống AI, bao gồm:
    • Lỗi dữ liệu: Dữ liệu huấn luyện không đủ, độ lệch dữ liệu, và các vấn đề noise trong dữ liệu, sẽ khiến mô hình AI không học được quy luật của thế giới thực một cách chính xác.
    • Lỗi mô hình: Cấu trúc mô hình quá đơn giản, thiết lập tham số không hợp lý, hoặc phương pháp huấn luyện không hoàn chỉnh, cũng có thể dẫn đến khả năng tổng quát của mô hình AI không đủ, dễ tạo ra ảo giác.
    • Lỗi suy luận: Ngay cả khi mô hình AI có đủ kho kiến thức, nó vẫn có thể gặp lỗi logic hoặc phán đoán sai khi đối mặt với các vấn đề phức tạp do khả năng suy luận yếu.

Do đó, ảo giác AI và sự thiên lệch nhận thức của con người giống như “họ hàng” nhưng không phải là “anh em sinh đôi”. Chúng có các biểu hiện tương tự, nhưng nguyên nhân đứng sau khác nhau hoàn toàn.

Hình thức biểu hiện và phạm vi ảnh hưởng: từ “ngộ nhận cá nhân” đến “ảo giác tập thể”

Học sinh giỏi nghĩ rằng mình đã làm hỏng bài kiểm tra, trong khi học sinh kém nghĩ rằng mình đã làm tốt. Khi đang siết chặt ốc vít mà vẫn nghĩ rằng mình đã làm đúng!

Ảo giác AI và thiên lệch nhận thức của con người có nhiều điểm tương đồng trong cách biểu hiện, ví dụ:

  • Sự méo mó thông tin: Cả hai đều có thể dẫn đến sự méo mó hoặc hiểu sai thông tin, ví dụ như nhớ sai sự kiện, hiểu lầm ý định của người khác, hoặc có những hiểu biết sai về con số hoặc dữ liệu thống kê.
  • Lỗi logic: Cả hai đều có thể dẫn đến sai sót trong quá trình suy luận, ví dụ như đưa ra những phán đoán sai lầm, kết luận sai, hoặc đề xuất những lời khuyên không hợp lý.

Tuy nhiên, phạm vi ảnh hưởng của chúng lại hoàn toàn khác biệt:

  • Thiên lệch nhận thức của con người: Thông thường chỉ ảnh hưởng đến phán đoán và hành vi cá nhân, là một kiểu “ngộ nhận cá nhân”. Chẳng hạn, một người có thể quá lạc quan về một dự án đầu tư do sự thiên lệch xác nhận của mình, dẫn đến thất bại trong đầu tư và chỉ mất tiền của riêng mình.
  • Ảo giác AI: Do việc áp dụng rộng rãi của hệ thống AI, ảo giác mà nó tạo ra có thể ảnh hưởng đến hàng nghìn người dùng, thậm chí ảnh hưởng đến toàn xã hội, là một kiểu “ảo giác tập thể”. Ví dụ, nếu thuật toán gợi ý tin tức gặp sai lệch, điều này có thể dẫn đến sự lan truyền thông tin sai lệch một cách quy mô lớn, gây hoang mang xã hội hoặc thao túng dư luận.
Thiên lệch nhận thức của con người Ảo giác AI
Bản chất Sự méo mó thông tin Hệ thống não bộ xử lý thông tin nhằm tiết kiệm nguồn lực nhận thức mà cho ra “đường tắt”, những con đường này tuy tăng hiệu suất nhưng cũng dễ dẫn đến sự méo mó và sai lệch thông tin Mô hình quá phụ thuộc vào các mẫu thống kê trong dữ liệu huấn luyện, dẫn đến khi đối mặt với tình huống mới, nó không thể hiểu và sinh ra thông tin chính xác, cuối cùng đưa ra nội dung không phản ánh thực tế
Hình thức thể hiện Đa dạng và khó phát hiện Xác nhận thiên lệch (chỉ chú ý đến thông tin hỗ trợ quan điểm), thiên lệch dễ tiếp cận (dễ nhớ những thông tin gần đây hoặc ấn tượng sâu sắc), hiệu ứng neo (quá phụ thuộc vào thông tin ban đầu nhận được) Tạo ra nhân vật, địa điểm, sự kiện không tồn tại, hoặc mô tả sai sự thật đã biết
Nguyên nhân Cả hai đều liên quan đến kinh nghiệm và kiến thức Liên quan đến kinh nghiệm phát triển cá nhân, bối cảnh văn hóa, cấu trúc kiến thức, v.v. Những trải nghiệm và kiến thức khác nhau sẽ tạo ra các mẫu nhận thức khác nhau, dẫn đến việc mọi người hiểu thông tin giống nhau theo các cách khác nhau Liên quan đến chất lượng dữ liệu huấn luyện, cấu trúc mô hình và chiến lược huấn luyện. Nếu dữ liệu huấn luyện chứa sai lệch hoặc sai sót, mô hình sẽ học những sai lệch và sai sót này và thể hiện chúng trong nội dung sinh ra
Ảnh hưởng Có thể dẫn đến quyết định sai lầm Có thể dẫn đến sai lầm trong phán đoán và lựa chọn trong cuộc sống. Ví dụ, một nhà đầu tư tiếp xúc quá nhiều với thiên lệch dễ tiếp cận có thể đánh giá cao xu hướng tăng trưởng gần đây của thị trường chứng khoán và gây ra quyết định đầu tư sai lầm Có thể gây nhầm lẫn cho người dùng, phát tán tin giả, thậm chí dẫn đến sự cố an toàn. Ví dụ, một hệ thống AI dùng trong chẩn đoán y tế, nếu gặp ảo giác có thể cho ra kết quả chẩn đoán sai, dẫn đến việc điều trị cho bệnh nhân bị chậm trễ

Ảo giác AI: “Kính lúp” của những sai sót kỹ thuật

Mặc dù ảo giác AI có nhiều điểm tương đồng với thiên lệch nhận thức của con người, nhưng chúng ta cần nhận thức được tính đặc thù của ảo giác AI. Ảo giác AI không phải là sự sáng tạo hay ý định chủ quan của AI, mà là một biểu hiện của các hạn chế kỹ thuật của hệ thống AI.

Sự xuất hiện của ảo giác AI cảnh báo chúng ta rằng công nghệ AI vẫn đang trong quá trình phát triển và độ tin cậy cũng như tính an toàn của nó cần được tiếp tục quan tâm và cải thiện. Chúng ta không thể so sánh hệ thống AI với con người, càng không thể đơn giản quy đổ ảo giác AI cho chính AI. Chỉ có hiểu rõ được bản chất của ảo giác AI mới giúp chúng ta dễ dàng hơn trong việc ứng phó với những thách thức mà nó mang lại, để trí tuệ nhân tạo thực sự trở thành người bạn đồng hành đáng tin cậy của con người, chứ không phải một mối đe dọa tiềm tàng.

Như vậy, có thể thấy, ảo giác AI không phải sản phẩm của trí tưởng tượng chủ quan của AI, mà là sự thể hiện của những hạn chế kỹ thuật, có sự khác biệt căn bản so với thiên lệch nhận thức của con người. Tuy nhiên, đối mặt với những “cạm bẫy” nhận thức này, con người đã phát triển một loạt chiến lược đối phó qua quá trình tiến hóa lâu dài này. Vậy con người đã chống lại thiên lệch nhận thức như thế nào để tránh sa lầy vào những sai lầm suy nghĩ? Những phương pháp này có thể cung cấp cho chúng ta những hiểu biết gì trong việc ứng phó với ảo giác AI?

Đào tạo nhận thức: Giúp bộ não luôn tỉnh táo

Nói một cách đơn giản: đó là việc học tập nhiều hơn!

Bộ não giống như một thiết bị tinh vi, cần thường xuyên học hỏi và rèn luyện để hoạt động hiệu quả. Để tránh những sai lầm “ngộ nhận”, chúng ta cần không ngừng nâng cao khả năng nhận thức, giống như việc nâng cấp và vá lỗi hệ thống cho bộ não.
Ảo giác AI Thiên nga đen

  • Nhận rõ “cạm bẫy tư duy”: Giống như việc học cách nhận diện email lừa đảo, chúng ta cũng cần hiểu những thiên lệch nhận thức thông thường, chẳng hạn:
    • Thiên lệch xác nhận: Chúng ta có xu hướng tìm kiếm thông tin hỗ trợ quan điểm của mình mà bỏ qua các bằng chứng trái ngược. Ví dụ, những người tin vào cung hoàng đạo thường dễ chú ý đến nội dung phù hợp với mô tả cung của họ mà bỏ qua những phần không phù hợp.
    • Hiệu ứng neo: Chúng ta dễ bị ảnh hưởng bởi ấn tượng đầu tiên, ngay cả khi ấn tượng đó sai. Ví dụ, một người bán hàng có thể đánh dấu một mức giá cao trước, rồi sau đó giảm giá, khiến ta cảm thấy có lợi, mặc dù giá sau giảm vẫn cao hơn giá thị trường ban đầu.
  • Rèn luyện tư duy logic: Giống như việc học toán, chúng ta cần học cách suy luận logic để nhận diện các luận cứ sai. Ví dụ, nếu có người nói “Tất cả thiên nga đều trắng vì những thiên nga tôi thấy đều trắng”, đó là một logic thiếu chặt chẽ vì tồn tại thiên nga đen.
  • Nắm vững khả năng phân tích dữ liệu: Trong kỷ nguyên thông tin bùng nổ, mỗi ngày chúng ta tiếp xúc với rất nhiều con số và dữ liệu thống kê. Học các kiến thức thống kê cơ bản có thể giúp chúng ta hiểu và phân tích dữ liệu tốt hơn, tránh bị lừa đảo. Ví dụ, một quảng cáo tuyên bố sản phẩm y tế có hiệu quả lên đến 90%, nhưng không đề cập đến kích thước mẫu và phương pháp thử nghiệm, chúng ta cần cảnh giác và không được tin tưởng mù quáng.

Giống như việc không nói về liều lượng là không nghiêm túc, ngoài việc tự nâng cấp bản thân, còn có nhiều công cụ hữu ích để cải thiện thiên lệch nhận thức.

Tư duy có cấu trúc: Sử dụng công cụ hỗ trợ cho phán đoán

Công cụ tư duy mở rộng khả năng tính toán và dung lượng lưu trữ của bộ não chúng ta

Công cụ tư duy có cấu trúc

Ngay cả khi chúng ta nỗ lực giữ tỉnh táo, đôi khi bộ não vẫn có thể “lười biếng” và mắc những sai lầm “ngộ nhận”. Lúc này, công cụ tư duy cấu trúc sẽ giúp chúng ta giảm thiếu những sai lầm đó.

  • Ma trận quyết định: Khi đối mặt với nhiều lựa chọn, chúng ta có thể sử dụng bảng để liệt kê ưu và nhược điểm của từng lựa chọn, đánh giá và định lượng các yếu tố hỗ trợ cho quyết định hợp lý hơn.
    • Ví dụ, trong việc chọn điểm du lịch, chúng ta có thể liệt kê điểm số về phong cảnh, phương tiện đi lại, chi phí, thay vì chọn theo cảm giác cá nhân.
  • Danh sách kiểm tra: Khi thực hiện các nhiệm vụ phức tạp, chúng ta có thể sử dụng danh sách kiểm tra chuyên nghiệp để đảm bảo mọi bước được hoàn thành theo kế hoạch, tránh những thiếu sót hoặc sai sót.
    • Ví dụ, các phi công sẽ nghiêm túc thực hiện danh sách kiểm tra trước khi cất cánh, để đảm bảo mọi hệ thống của máy bay hoạt động bình thường.
  • Mô hình đánh giá rủi ro: Khi ra quyết định quan trọng, chúng ta có thể sử dụng mô hình đánh giá rủi ro để phân tích rủi ro của các phương án khác nhau và xây dựng kế hoạch ứng phó.
    • Ví dụ, trước khi đầu tư, thực hiện việc đánh giá rủi ro giúp chúng ta quản lý tài chính tốt hơn và tránh những tổn thất không cần thiết.

Công cụ tư duy có cấu trúc giống như việc gắn thêm “bánh phụ” cho suy nghĩ của chúng ta, giúp chúng ta đưa ra những phán đoán chắc chắn hơn khi đối mặt với các vấn đề phức tạp.

Sự thông minh tập thể: Khai thác trí tuệ tập thể

Quan trọng hơn là, chúng ta là những sinh vật xã hội; qua sự trao đổi thông tin không ngừng, sẽ hình thành những nhận thức và hiểu biết mới.

Sự thông minh tập thể

Có câu: “Ba người thợ hàn có thể bằng một người khôn ngoan”. Để giải quyết những vấn đề phức tạp, chỉ dựa vào sức mạnh cá nhân sẽ rất khó để tìm ra giải pháp tốt nhất. Lúc này, chúng ta cần tập hợp ý tưởng, tận dụng trí tuệ tập thể để bù đắp cho những hạn chế của nhận thức cá nhân.

  • Động não: Qua việc tập hợp ý tưởng, chúng ta có thể nhìn nhận vấn đề từ nhiều góc độ khác nhau, kích thích sáng tạo và tìm ra những phương án toàn diện hơn.
    • Ví dụ, trong cuộc họp thiết kế sản phẩm, các thành viên trong đội có thể thoải mái nêu ra các ý tưởng mà không bị giới hạn bởi cách nghĩ của riêng mình.
  • Tranh luận và thảo luận: Thông qua việc tranh luận và thảo luận, chúng ta có thể chống lại các quan điểm khác nhau, giúp chúng ta hiểu rõ hơn về bản chất của vấn đề và đạt được giải pháp hợp lý hơn.
    • Ví dụ, quy trình tranh luận tại tòa án chính là rằng các luật sư hai bên sử dụng lập luận logic và chứng cứ để thuyết phục thẩm phán và bồi thẩm đoàn.
  • Bỏ phiếu và đàm phán: Trong những trường hợp cần phải ra quyết định tập thể, chúng ta có thể thông qua bỏ phiếu và đàm phán để tổng hợp ý kiến của mọi người, tìm ra một phương án mà phần lớn mọi người chấp nhận.
    • Ví dụ, cuộc họp của những cư dân trong chung cư có thể bỏ phiếu để quyết định phương án quản lý của toàn khu.

Trí tuệ tập thể giống như việc kết nối nhiều “bộ vi xử lý” lại với nhau, tạo ra một “mạng lưới tính toán” mạnh mẽ có khả năng xử lý các vấn đề phức tạp hơn.

Từ con người đến AI: Bí quyết giúp AI thông minh hơn

Những phương pháp mà con người áp dụng để đối phó với thiên lệch nhận thức cung cấp những ý tưởng quý giá cho việc giải quyết vấn đề ảo giác AI. Nếu học hỏi từ những phương pháp này, phát triển các giải pháp kỹ thuật tương ứng có thể giúp AI hiểu thế giới tốt hơn và đưa ra những quyết định chính xác hơn.

  • Dọn dẹp dữ liệu: Giống như con người cần được đào tạo nhận thức, chúng ta cần thực hiện “dọn dẹp dữ liệu” cho mô hình AI, loại bỏ những sai sót, bổ sung thông tin thiếu và cân bằng các độ lệch, từ đó giúp mô hình học hỏi kiến thức thực tế và toàn diện hơn.
  • Khai thông “hộp đen” của AI: Giống như con người sử dụng công cụ có cấu trúc để hỗ trợ cho quá trình suy nghĩ, cần làm cho quá trình “tư duy” của AI trở nên minh bạch hơn, dễ hiểu hơn cho con người.
    • Ví dụ, công nghệ AI có thể giải thích giúp chúng ta tìm hiểu mô hình AI đã đưa ra quyết định như thế nào, giúp tránh những kết luận sai do logic hoặc dữ liệu sai. (Nghiên cứu của nhóm Anthropic vào năm 2024 hữu ích cho việc giải quyết vấn đề “hộp đen” hiện đang trong giai đoạn khám phá)
  • Xây dựng “nhóm tư vấn” cho AI: Giống như con người tập hợp ý kiến để tạo ra nhiều ý tưởng, chúng ta có thể để cho nhiều mô hình AI làm việc cùng nhau để giải quyết vấn đề, tránh những sai sót do mô hình đơn lẻ gây ra. (Mô hình đa tác viên mà Andrew Ng gần đây đã đề cập là một trong những cách khám phá hữu ích)

Quản lý ảo giác AI là một hành trình đầy thử thách, cần liên tục học hỏi từ trí tuệ của con người để biến kinh nghiệm chống lại thiên lệch nhận thức thành động lực tiến bộ kỹ thuật trong AI.

Con người đã tích lũy được những kinh nghiệm quý báu qua cuộc đấu tranh lâu dài với thiên lệch nhận thức. Những trải nghiệm này dạy chúng ta rằng nâng cao khả năng nhận thức, sử dụng công cụ hỗ trợ cho phán đoán, và khai thác trí tuệ tập thể có thể giúp chúng ta giảm thiếu sai lầm và đưa ra những quyết định hợp lý hơn. Vậy trong các hệ thống AI, có tồn tại các “thiên lệch nhận thức” tương tự không? Ảo giác AI thực sự là gì? Nó có những hình thức thể hiện và loại nào?

Ảo giác AI: Khi trí tuệ nhân tạo “nói bậy một cách nghiêm túc”

Chúng ta đã hiểu cách con người khéo léo đối phó với thiên lệch nhận thức, vậy đối với các hệ thống AI, có tồn tại các “cạm bẫy nhận thức” tương tự không? Câu trả lời là có, đó chính là “Ảo giác AI”.

Ảo giác AI: “Mê cung” của sự thật và tưởng tượng

Nói một cách đơn giản, ảo giác AI là khi thông tin mà hệ thống AI sinh ra không khớp với thực tế, hoặc không khớp với mong đợi, giống như trí tuệ nhân tạo “nói bậy một cách nghiêm túc”. Những “nói bậy” này không phải là cố ý mà là do những sai sót kỹ thuật gây ra.

Định nghĩa về ảo giác AI có thể tóm gọn là: Nội dung đầu ra do hệ thống AI sinh ra nhìn chung hợp lý, mạch lạc, nhưng thực tế lại mâu thuẫn với thông tin đầu vào, ngữ cảnh hoặc sự thật khách quan, thiếu logic hoặc trải nghiệm hỗ trợ.

Ảo giác AI: “Nhiều mặt”

Các hình thức thể hiện của ảo giác AI rất đa dạng, như minh họa dưới đây:

Ảo giác AI: Rủi ro tiềm ẩn

Rủi ro của ảo giác

Ảo giác AI có vẻ chỉ là “các lỗi nhỏ”, nhưng trong thực tế có thể đem lại rủi ro rất lớn.

  • Dẫn dắt người dùng sai: Ảo giác AI có thể khiến người dùng nhận được thông tin sai, rồi từ đó đưa ra những đánh giá sai.
    • Ví dụ, trợ lý AI trong lĩnh vực y tế có thể đưa ra các khuyến cáo chẩn đoán sai, có thể làm chậm trễ việc điều trị cho bệnh nhân.
  • Phát tán thông tin giả: Ảo giác AI có thể được sử dụng để tạo ra và phát tán thông tin giả, gây nhầm lẫn cho công chúng và ảnh hưởng đến sự ổn định của xã hội.
    • Ví dụ, AI có thể tạo ra các bài báo hoặc bài viết trên mạng xã hội giả, phục vụ mục đích tuyên truyền chính trị hoặc thao túng thương mại.
  • Gây tổn hại đến độ tin cậy của hệ thống AI: Ảo giác AI có thể giảm lòng tin của người dùng vào hệ thống AI, cản trở sự phát triển và ứng dụng công nghệ AI.
    • Ví dụ, nếu người dùng phát hiện AI thường xuyên “nói bậy”, họ có thể không còn tin tưởng vào phán đoán của AI và thậm chí từ chối sử dụng sản phẩm AI.

Ảo giác AI: Cả cơ hội và thách thức

Cả cơ hội và thách thức

Sự xuất hiện của ảo giác AI đã đánh động chúng ta, nhắc nhở về việc khi phát triển công nghệ AI, cũng cần quan tâm đến tính an toàn và độ tin cậy. Tuy nhiên, chúng ta không nên vì vậy mà phủ nhận giá trị tích cực của ảo giác AI.

  • Thúc đẩy tiến bộ công nghệ: Ảo giác AI phơi bày những giới hạn của công nghệ AI hiện tại, thúc đẩy các nhà nghiên cứu không ngừng tìm kiếm những phương pháp mới và công nghệ mới nhằm cải thiện hiệu suất và tính tin cậy của hệ thống AI.
  • Kích thích sự sáng tạo của con người: Ảo giác AI đôi khi có thể tạo ra những đầu ra bất ngờ, độc đáo, truyền cảm hứng cho sự sáng tạo nghệ thuật và nghiên cứu khoa học của con người, giúp chúng ta vượt qua những lối mòn tư duy và khám phá những lĩnh vực chưa biết.

Ảo giác AI giống như một con dao hai lưỡi, vừa là thách thức, vừa là cơ hội. Chúng ta cần đối mặt với những rủi ro mà ảo giác AI mang lại, đồng thời tích cực khai thác giá trị tiềm năng của nó, để trí tuệ nhân tạo phục vụ xã hội con người một cách tốt nhất.

Ảo giác AI giống như một “hồn ma” ẩn mình trong hệ thống AI; nó dáng vẻ thật nhưng có khả năng dẫn dụ chúng ta vào những con đường sai lầm. Vậy nguyên nhân nào dẫn đến các hiện tượng “nói bậy một cách nghiêm túc” này? Chỉ khi chúng ta thấu hiểu sâu sắc nguyên nhân gây ra ảo giác AI mới có thể tìm ra những biện pháp hiệu quả để giúp trí tuệ nhân tạo trở thành người bạn đồng hành đáng tin cậy của nhân loại.

AI cũng có thể “hư hỏng”? — Khám phá những nguyên nhân đứng sau ảo giác AI

Chúng ta đã được chứng kiến những “hành vi lừa đảo” của ảo giác AI, không tránh khỏi đặt câu hỏi, nguyên nhân nào đã khiến AI đi vào con đường “nói bậy một cách nghiêm túc”? Chỉ khi làm rõ những bí ẩn phía sau ảo giác AI, chúng ta mới có thể tìm ra “thuốc giải” hiệu quả, để AI không đi trên con đường sai lầm ngày càng xa.

“Giáo trình kém chất lượng”: Cạm bẫy của chất lượng dữ liệu

“Giáo trình kém chất lượng”: Cạm bẫy của chất lượng dữ liệu

Đã từng có một câu chuyện trong quá trình hiện đại hóa thông tin rằng, “Dữ liệu đầu vào là rác, đầu ra cũng là rác” (Garbage in, garbage out). Đây cũng là một trong những lý do khiến nhiều dự án hiện đại hóa thất bại; quá trình học của AI cũng tương tự.

Nếu dữ liệu huấn luyện của mô hình AI có vấn đề, thì AI có thể “hư hỏng”, tạo ra nhiều ảo giác khác nhau.

  • Ô nhiễm thông tin:
    • Nếu tư liệu học của AI chứa thông tin sai lệch, nó có thể ghi nhớ những thông tin sai này như “chân lý” và đưa ra đầu ra theo đó. Mô hình AI rất dễ bị ảnh hưởng bởi thông tin sai trong dữ liệu huấn luyện, tạo ra “lỗi mô phỏng”.
    • Ví dụ, nếu dữ liệu huấn luyện có đầy rẫy thông tin sai như “Trái đất phẳng”, thì mô hình AI có thể tự tin khẳng định rằng Trái đất là phẳng khi được hỏi về vấn đề này.
  • Cạm bẫy thiên lệch:
    • Nếu dữ liệu huấn luyện của AI có thiên lệch, nó có thể “nội hóa” những thiên lệch này và thể hiện chúng trong nội dung đầu ra. Ví dụ, nếu trong dữ liệu huấn luyện có phần lớn lập trình viên là nam, thì AI có thể tự động xem lập trình viên là nam khi tạo nội dung văn bản mà không nhận diện đến sự hiện diện của lập trình viên nữ.
    • Thiên lệch này có thể dẫn đến việc đầu ra của AI thiếu tính khách quan và công bằng, thậm chí có thể gia tăng thiên lệch và phân biệt đối xử hiện có trong xã hội.
  • Khe hở kiến thức:
    • Kho kiến thức của AI đến từ dữ liệu huấn luyện; nếu dữ liệu huấn luyện thiếu kiến thức một lĩnh vực nào đó, hoặc kiến thức không được cập nhật kịp thời, thì AI có thể trả lời sai về những vấn đề liên quan mà chỉ có thể “bịa ra”.
    • Ví dụ, nếu một mô hình AI về y tế chưa học qua về một bệnh hiếm, thì khi gặp các trường hợp liên quan, nó có thể đưa ra chẩn đoán sai hoặc thậm chí “bịa ra” những thuật ngữ y học không tồn tại.

“Lý do không đủ”? — Hạn chế năng lực của mô hình

Hạn chế năng lực của mô hình

Ngay cả khi dữ liệu huấn luyện hoàn hảo, mô hình AI cũng có thể tạo ra ảo giác do hạn chế về năng lực của chính nó.

  • Cấu trúc đơn giản, hiểu biết hạn chế:
    • Mô hình AI giống như một học sinh; nếu “bộ não” của nó không đủ phức tạp, khả năng hiểu biết sẽ bị giới hạn, dễ mắc hiểu lầm hoặc xuyên tạc khi gặp văn bản hoặc hình ảnh phức tạp.
    • Ví dụ, một mô hình nhận diện hình ảnh đơn giản có thể không phân biệt được giữa một con mèo và một con hổ, vì chúng có nhiều điểm tương đồng.
  • Không tập trung, không nắm được trọng điểm:
    • Khi xử lý thông tin, mô hình AI cũng cần chú ý. Nếu nó “lơ đãng”, có thể bỏ qua thông tin quan trọng và chỉ tập trung vào những thông tin không liên quan, dẫn đến đầu ra nội dung “không ăn khớp”.
    • Ví dụ, khi dịch một bài báo, AI có thể quá chú ý đến một chi tiết nào đó mà quên mất chủ đề chính của bài viết, dẫn đến bản dịch không phản ánh đúng ý nghĩa của nguyên bản.
  • Thiếu khả năng suy luận, logic rối rắm:
    • Mô hình AI cần có khả năng suy luận nhất định để hiểu được các mối quan hệ logic trong văn bản hoặc hình ảnh. Nếu thiếu khả năng suy luận, mô hình có thể sinh ra văn bản logic rối rắm, thậm chí tự mâu thuẫn.
    • Ví dụ, một chatbot AI trong khi trả lời câu hỏi có thể trước tiên nói “Hôm nay trời nắng”, và sau đó nói “Nhớ mang ô, hôm nay có mưa”.

“Huấn luyện không đầy đủ”? — Hạn chế của phương pháp huấn luyện

Quá trình huấn luyện mô hình AI giống như quá trình học của học sinh; cần có phương pháp khoa học và thời gian đủ dài thì mới có được hiệu quả tốt. Nếu phương pháp huấn luyện có khuyết điểm, mô hình AI cũng có thể “chưa thông” và dễ gây ra ảo giác.

  • Phương pháp học đơn điệu, thiếu tính linh hoạt: Các phương pháp huấn luyện AI truyền thống thường dạy mô hình học đi học lại một khối lượng lớn dữ liệu mẫu, cho đến khi mô hình có thể nhận diện hoặc sinh ra các mẫu này chính xác. Tuy nhiên, phương pháp này thiếu tính linh hoạt, dẫn đến mô hình dễ bị “lúng túng” khi gặp mẫu mới và chưa từng thấy, chỉ có thể dựa vào kiến thức có sẵn để dự đoán, từ đó dẫn đến ảo giác. Ví dụ, một mô hình AI chỉ học qua hình ảnh của mèo, khi thấy hình ảnh của một con chó, có thể nhầm lẫn nó với mèo hoặc “tưởng tượng” ra một hình ảnh về chó dựa trên đặc điểm của mèo.
  • Quá phụ thuộc vào “đáp án chuẩn”, thiếu sự sáng tạo: Trong quá trình huấn luyện, mô hình AI thường nhận được một “đáp án chuẩn”, cần phải điều chỉnh tham số của mình cho đến khi câu trả lời phù hợp với “đáp án chuẩn”. Tuy nhiên, quá phụ thuộc vào “đáp án chuẩn” có thể hạn chế sự sáng tạo của mô hình AI, dẫn đến việc không thể đưa ra câu trả lời mới mẻ và sáng tạo cho các câu hỏi mở, mà chỉ có thể lặp lại kiến thức có sẵn hoặc “hợp thành” một thông tin nào đó dựa vào kiến thức đã học.

AI cũng có thể “nói lộn”? — Tính ngẫu nhiên trong quá trình suy luận

Khi mô hình AI sinh ra văn bản hoặc hình ảnh, thường dựa vào phân bố xác suất để chọn từ ngữ hoặc pixel có khả năng xuất hiện nhất. Tính ngẫu nhiên này mặc dù có thể tăng cường sự sáng tạo và đa dạng của mô hình AI, nhưng cũng có thể dẫn đến việc AI “nói lộn,” sinh ra những câu có thể không hợp logic hoặc sai sự thật.

Ví dụ, một mô hình viết AI khi tạo ra một câu chuyện, có thể chọn giữa “anh” hoặc “cô” để chỉ một nhân vật nào đó dựa trên phân bố xác suất. Nếu mô hình không hiểu đúng giới tính của nhân vật, có thể xảy ra “nhầm lẫn giới tính”, chẳng hạn, trong một câu chuyện về một nhân vật nữ, AI lại bất ngờ dùng từ “anh” để chỉ nhân vật này, gây ra sự bối rối.

Sự xuất hiện của ảo giác AI là một quá trình phức tạp, có thể là kết quả của nhiều yếu tố tác động. Chỉ khi hiểu sâu về những nguyên nhân đứng sau ảo giác AI, chúng ta mới có thể tìm ra những biện pháp hiệu quả hơn giúp hệ thống AI trở nên đáng tin cậy và an toàn hơn.

Từ chất lượng dữ liệu, cấu trúc mô hình, cho đến phương pháp huấn luyện và cơ chế suy luận, sự xuất hiện của ảo giác AI giống như hiệu ứng domino, liên kết với nhau, phức tạp và chồng chéo. Để hiểu vấn đề này tốt hơn, chúng ta cần lần lại lịch sử của ảo giác AI, tìm hiểu ảo giác AI đã thay đổi như thế nào theo sự phát triển của công nghệ AI.

Lịch sử ngắn gọn về ảo giác AI: Từ “trí thông minh nhân tạo kém” đến “nói bậy một cách nghiêm túc”

Chúng ta đã tìm hiểu sự giao thoa của các yếu tố dẫn đến ảo giác AI; vậy vấn đề “cứng đầu” này đã tiến triển ra sao theo sự phát triển của công nghệ AI? Hãy cùng nhau lần lại lịch sử ngắn gọn về ảo giác AI, có thể từ đó tìm thấy một số manh mối để quản lý vấn đề này.

Thời đại hệ thống chuyên gia: “Lồng” của quy tắc

Các hệ thống AI giai đoạn sớm chủ yếu dựa vào quy tắc và logic do các chuyên gia con người quy định để suy luận và đưa ra quyết định, giống như một diễn viên chỉ biết diễn theo “kịch bản”. Những hệ thống này được gọi là “hệ thống chuyên gia”; khi xử lý các vấn đề trong một lĩnh vực cụ thể, chúng đã tỏ ra xuất sắc, chẳng hạn như chẩn đoán một số bệnh hoặc thực hiện các phép toán đơn giản.

Tuy nhiên, điểm yếu chí mạng của hệ thống chuyên gia là giới hạn trong kho kiến thức của chúng. Một khi gặp phải những tình huống vượt quá quy tắc đã được thiết lập, chúng trở nên “bối rối” và mắc những sai lầm nghiêm trọng, giống như một học sinh chỉ biết thuộc lòng sách mà không biết trả lời cho những câu hỏi ngoài sách.

Ví dụ, các hệ thống chuyên gia y tế trước đây, khi gặp một căn bệnh hoàn toàn mới mà chưa từng biết đến, có thể đưa ra chẩn đoán sai, thậm chí còn gợi ý những phương pháp điều trị sai. Trong ngày hôm nay, điều này nghe có vẻ giống như “trí thông minh nhân tạo kém”, nhưng thực tế đó là một bức tranh chân thực về trình độ phát triển của công nghệ AI ở thời điểm đó.

Thời đại học máy: Từ “thuộc lòng” đến “nâng cao khả năng giải quyết”

Với sự tiến bộ của công nghệ máy tính và sự bùng nổ về lượng dữ liệu, AI đã bước vào thời đại “học máy”. Thuật toán học máy có thể tự động học các quy luật từ lượng dữ liệu lớn và dự đoán, đưa ra quyết định dựa trên những quy luật đó, giống như một sinh viên có thể tóm tắt các kỹ năng giải cụm từ từ hàng tỷ bài tập.

So với hệ thống chuyên gia, khả năng tổng quát của mô hình học máy mạnh hơn có thể xử lý các nhiệm vụ phức tạp và đa dạng hơn. Tuy nhiên, mô hình học máy vẫn phụ thuộc vào chất lượng và số lượng dữ liệu. Nếu dữ liệu huấn luyện có độ lệch hoặc chưa đủ, mô hình AI vẫn có thể “học lệch”, gây ra nhiều ảo giác.

Ví dụ, một mô hình dịch máy, nếu chỉ học qua một lượng mẫu ngôn ngữ hạn chế, có thể gặp các sai sót về ngữ nghĩa hoặc logic khi dịch những câu phức tạp. Điều này giống như một sinh viên chỉ biết “thuộc lòng” từ vựng lại không hiểu được nghĩa sâu sắc của câu văn.

Thời đại học sâu: Bí mật trong “hộp đen”

Gần đây, công nghệ học sâu đã đạt được những bước tiến đột phá, trở thành “điểm nóng” trong lĩnh vực AI. Mô hình học sâu có cấu trúc phức tạp hơn và nhiều tham số hơn, có thể học được các đặc trưng tinh vi từ lượng dữ liệu khổng lồ, từ đó đạt được dự đoán và quyết định chính xác hơn.

Tuy nhiên, mô hình học sâu khó có thể giải thích, quy trình quyết định bên trong giống như một “hộp đen,” con người khó khăn trong việc hiểu được. Điều này khiến chúng ta khó đánh giá liệu mô hình thực sự “thông minh” hay đơn giản chỉ là “nhớ” hàng triệu thông tin. Khi gặp các tình huống chưa thấy, nó có thể xuất hiện ảo giác, và những ảo giác này thường khó phát hiện vì có thể ẩn mình dưới lớp bề ngoài hợp lý.

Khi độ phức tạp của mô hình AI tăng lên, các loại ảo giác cũng trở nên phong phú hơn, với nhiều hình thức thể hiện, ngày càng tinh vi hơn, khó nhận diện và sửa chữa hơn. Ví dụ, một mô hình viết AI có thể sinh ra một bài viết ngữ pháp quy đúng, logic suôn sẻ, nhưng nội dung lại hoàn toàn hư cấu, thậm chí “bịa ra” những nhân vật, sự kiện hay lý thuyết không tồn tại.

Ảo giác AI: Gia tăng như một “sản phẩm anh em” của tiến bộ kỹ thuật

Xem lại lịch sử của ảo giác AI, chúng ta sẽ thấy rằng ảo giác AI không phải là một vấn đề mới, mà là một vấn đề đã phát triển song song với sự tiến triển của công nghệ AI. Từ “trí thông minh nhân tạo kém” đến “nói bậy một cách nghiêm túc,” tính phức tạp và tính kín đáo của ảo giác AI đều đang gia tăng.

Quá trình tiến hóa của ảo giác AI cũng phản ánh sự nâng cao trình độ phát triển của công nghệ AI. Từ việc dựa vào quy tắc thủ công, đến học tập tự động, cho đến nay là học sâu, hệ thống AI đang trở nên thông minh hơn, nhưng cũng phải đối mặt với những thách thức phức tạp và không thể dự đoán trước. Ảo giác AI chính là “sản phẩm anh em” của cuộc tiến bộ kỹ thuật, nhắc nhở chúng ta rằng khi theo đuổi nâng cao năng lực của AI, chúng ta cũng cần cảnh giác với chất lượng và độ an toàn của nó.

Các vấn đề về ảo giác AI giống như một hồn ma đeo bám quá trình phát triển công nghệ AI, từ những “trí thông minh nhân tạo kém” đến “nói bậy một cách nghiêm túc,” tính phức tạp và tính kín đáo đang ngày càng gia tăng. Mặc dù khả năng AI ngày càng mạnh mẽ, nhưng thiên lệch và xu hướng “tự chỉnh” vẫn đang làm nảy sinh những lo ngại. Vậy, để ứng phó với những vấn đề này, con người有哪些 giải pháp? Những nghiên cứu của các nhà khoa học nhằm “thuần hóa” ảo giác AI để giúp AI trở nên an toàn và đáng tin cậy đã tiến triển ra sao?

Ảo giác AI: Không phải vô phương cứu chữa

Lịch sử về ảo giác AI cho chúng ta thấy rằng vấn đề này đã đồng hành cùng sự phát triển của AI như một “cái bóng” không thể bỏ đi. Vậy thì trước ảo giác AI, chúng ta chỉ biết đứng nhìn mà không có cách nào? Chắc chắn không! Trong những năm gần đây, các nhà nghiên cứu đã phát triển nhiều phương pháp kỹ thuật nhằm “thuần hóa” hiện tượng rất khó hiểu này và giúp AI trở nên tin cậy hơn.

“Kiểm tra sức khỏe dữ liệu”: Đặt nền móng cho AI

Như đã đề cập trước đó, dữ liệu huấn luyện kém chất lượng là một trong những nguyên nhân quan trọng dẫn đến ảo giác AI. Vì vậy việc cung cấp cho mô hình AI dữ liệu “sạch” và “khỏe mạnh” giống như việc giúp AI có một “kiểm tra sức khỏe” toàn diện, là biện pháp cơ bản để dự phòng ảo giác AI.

  • Làm sạch dữ liệu: Giống như bác sĩ loại bỏ các chất độc ra khỏi cơ thể bệnh nhân, các nhà khoa học dữ liệu sẽ sử dụng nhiều phương pháp kỹ thuật để “làm sạch” dữ liệu huấn luyện của AI, loại bỏ thông tin sai, bổ sung dữ liệu thiếu và sửa chữa những nội dung không nhất quán, nhằm loại bỏ các yếu tố thiên lệch có trong dữ liệu.
  • Tăng cường dữ liệu: Để giúp mô hình AI học hỏi kiến thức toàn diện hơn, chúng ta cần cung cấp dữ liệu huấn luyện phong phú và đa dạng hơn, giống như cung cấp cho học sinh nhiều bài tập khác nhau, giúp họ nắm được nhiều kiến thức và kỹ năng giải quyết vấn đề. Ví dụ, trong quá trình huấn luyện một mô hình nhận diện hình ảnh, chúng ta có thể bổ sung nhiều hình ảnh đã có dưới dạng xoay, thu phóng và cắt ghép để tạo ra thêm các mẫu mới, từ đó nâng cao khả năng tổng quát của mô hình.

“Cải tạo bộ não”: Tối ưu hóa mô hình AI

Ngoài việc cung cấp dữ liệu chất lượng tốt, chúng ta có thể tối ưu hóa chính mô hình AI để giảm thiểu rủi ro ảo giác.

  • Chỉnh sửa mô hình: Nếu chúng ta phát hiện mô hình AI có một số hạn chế, chẳng hạn dễ gây ra các loại ảo giác nhất định, chúng ta có thể điều chỉnh cấu trúc hoặc tham số của mô hình bằng cách sử dụng kỹ thuật “chỉnh sửa mô hình”, giống như bác sĩ phẫu thuật cho bệnh nhân để khắc phục khuyết điểm.
  • Kỹ thuật gợi ý: Mô hình AI giống như một robot cần có lệnh để hoạt động, và “gợi ý” là lệnh mà chúng ta cung cấp cho mô hình AI. Thông qua việc thiết kế các gợi ý một cách cẩn thận, chúng ta có thể hướng dẫn mô hình AI hiểu đúng ý định của mình và tạo ra nội dung sát với yêu cầu hơn, từ đó giảm khả năng xảy ra ảo giác. Ví dụ, khi sử dụng mô hình viết AI, chúng ta có thể chỉ định phong cách viết, chủ đề và từ khóa để hướng dẫn mô hình tạo ra văn bản đáp ứng yêu cầu.

“Phụ kiện tri thức”: Công nghệ RAG

Để bổ sung cho việc thiếu kiến thức của mô hình AI, chúng ta có thể cung cấp hỗ trợ tri thức bên ngoài, giống như cung cấp cho học sinh những sách tham khảo và tài liệu hướng dẫn giúp họ hiểu rõ và giải quyết vấn đề hơn. Công nghệ Tạo dựng Thông tin Tìm kiếm Tăng cường (RAG) là một phương pháp để cung cấp “phụ kiện tri thức” cho mô hình AI.

Chúng ta có thể tóm tắt quy trình làm việc của công nghệ RAG như sau:

  1. Hiểu vấn đề: Mô hình AI trước tiên cần hiểu câu hỏi hoặc chỉ dẫn của người dùng.
  2. Tìm kiếm kiến thức liên quan: Mô hình AI dựa vào sự hiểu biết về vấn đề để tìm thông tin liên quan từ kho kiến thức bên ngoài. Ví dụ, nếu người dùng hỏi “Tháp Eiffel cao bao nhiêu?”, mô hình AI sẽ tìm kiếm thông tin về Tháp Eiffel trong kho chi tiết.
  3. Kết hợp kiến thức và suy luận: Mô hình AI sẽ kết hợp thông tin đã tìm thấy với khả năng suy luận của chính mình để tạo ra câu trả lời hoặc nội dung cuối cùng.

Công nghệ RAG có ưu điểm là kết nối mô hình AI với kho kiến thức bên ngoài, từ đó mở rộng phạm vi kiến thức của mô hình, nâng cao độ chính xác khi trả lời câu hỏi và tạo ra nội dung. Ví dụ, trong lĩnh vực y tế, công nghệ RAG có thể giúp trợ lý AI trong y tế có được những kiến thức và trường hợp lâm sàng mới nhất, từ đó nâng cao độ chính xác trong các khuyến cáo về chẩn đoán và điều trị.

Ưu điểm của công nghệ RAG:

  • Tăng độ chính xác: Qua việc tìm kiếm thông tin liên quan, nội dung mà nó tạo ra có cơ sở thực tế hơn, giảm thiểu nguy cơ bịa đặt và ảo giác.
  • Nâng cao tính đồng nhất: Kết hợp thông tin tìm kiếm và mô hình tạo ra giúp đảm bảo rằng nội dung được sinh ra trong ngữ cảnh và logic thống nhất.
  • Khả năng thích ứng mạnh: Công nghệ RAG có thể được áp dụng cho nhiều nhiệm vụ phát sinh, bao gồm tạo nội dung văn bản, hệ thống hỏi đáp, dịch thuật, với triển vọng ứng dụng rộng rãi.

Hạn chế của công nghệ RAG

Mặc dù công nghệ RAG thể hiện xuất sắc trong việc giảm thiểu ảo giác AI, nhưng nó cũng có một số hạn chế:

  • Phụ thuộc vào chất lượng tìm kiếm: Hiệu suất của công nghệ RAG rất phụ thuộc vào chất lượng thông tin mà nó tìm thấy. Nếu dữ liệu trong kho kiến thức có sai lệch hoặc lỗi, nội dung sinh ra cũng có thể bị ảnh hưởng.
  • Yêu cầu tài nguyên tính toán cao: Công nghệ RAG kết hợp cả hai phần tìm kiếm và sinh ra, nhu cầu tài nguyên tính toán khá cao, có thể hạn chế khả năng áp dụng của nó trong các bối cảnh có nguồn lực giới hạn.
  • Tốc độ xử lý chậm: Do cần phải tìm kiếm thông tin trước khi tạo nội dung, tốc độ xử lý của công nghệ RAG tương đối chậm, không phù hợp cho các ứng dụng yêu cầu tính thời gian cao.

“Đào tạo chống đối”: Giúp AI “chịu đựng” tốt hơn

Trong quá trình huấn luyện, mô hình AI có thể gặp phải một số “mẫu dữ liệu độc hại,” chẳng hạn như thông tin sai cố ý hoặc dữ liệu noise. Những mẫu “độc hại” này có thể dẫn dắt mô hình AI đi sai hướng, làm phát sinh ảo giác. Để nâng cao độ bền vững của mô hình AI, chúng ta có thể áp dụng kỹ thuật “đào tạo chống đối,” giúp mô hình AI tiếp xúc với những mẫu “độc hại” trong quá trình huấn luyện và học cách nhận diện và kháng cự lại chúng.

Đào tạo chống đối giống như cho mô hình AI một “buổi huấn luyện” thực tế, giúp nó bình tĩnh đối mặt và đưa ra những phán đoán chính xác trong khi chịu tác động của nhiều dạng “tấn công”.

Tinh chỉnh chính xác: Sử dụng từ gợi ý để “thuần hóa” ảo giác AI

Để tránh ảo giác AI, ngoài việc tối ưu hóa dữ liệu và mô hình, chúng ta cũng có thể thông minh chuyên dụng để sử dụng “kỹ thuật gợi ý”, giống như một huấn luyện viên dày dạn, dùng lệnh chính xác để hướng dẫn AI tạo ra nội dung đáng tin cậy hơn.

Khả năng hiểu của AI đối với các từ gợi ý có tính quyết định trong việc tạo ra ảo giác. Những từ gợi ý rõ ràng và cụ thể giúp AI hiểu đúng ý định của chúng ta, giảm thiểu những sai sót “ngộ nhận”.

Ví dụ, khi hỏi AI “Ngày quan trọng trong Thế chiến II”, nếu chỉ ném ra một câu hỏi thì AI có thể trả lời một thông tin không chính xác từ dữ liệu nhớ nhớ của nó. Nhưng nếu chúng ta trong từ gợi ý chắn chắn yêu cầu AI “dựa trên tài liệu lịch sử có uy tín” và xác định rõ khoảng thời gian, AI có nhiều khả năng sẽ cung cấp các câu trả lời chính xác hơn.

Dưới đây là một số mẹo kỹ thuật từ gợi ý nhằm tránh ảo giác AI:

  • Yêu cầu AI trích dẫn nguồn tài liệu đáng tin cậy:
    • Ví dụ, trong khi hỏi về các sự kiện lịch sử, yêu cầu AI trích dẫn các tài liệu lịch sử uy tín;
    • Trong khi hỏi về thông tin khoa học, yêu cầu AI sử dụng các công trình nghiên cứu đã được xuất bản;
    • Khi hỏi về điều khoản pháp lý, yêu cầu AI trích dẫn các văn bản pháp lý chính thức.
  • Yêu cầu AI trình bày quá trình lập luận chi tiết:
    • Điều này giúp chúng ta dễ dàng hiểu cách mà AI dần đi đến kết luận và có thể phán đoán được kết luận đó có hợp lý hay không.
    • Ví dụ, trong khi hỏi về công thức toán học, hãy yêu cầu AI trình bày quy trình chứng minh;
    • Khi đề cập đến chức năng của mã, yêu cầu AI giải thích từng dòng mã để biết rõ ý nghĩa.
  • Rõ ràng xác định phạm vi phát sinh của AI:
    • Ví dụ, khi hỏi về các câu nói nổi tiếng, xác định tên của nhân vật và chủ đề liên quan;
    • Khi khai thác sự kiện tin tức, hãy xác định khoảng thời gian của chúng và từ khóa liên quan.

Thông qua các kỹ thuật này, chúng ta có thể làm cho từ gợi ý thêm phần rõ ràng, cụ thể, từ đó hướng dẫn AI tạo ra nội dung chính xác và đáng tin cậy hơn. Tất nhiên, kỹ thuật từ gợi ý chỉ là một biện pháp phụ trợ; để giải quyết tận gốc vấn đề ảo giác AI, chúng ta cần nỗ lực từ nhiều phía như dữ liệu, mô hình, phương pháp huấn luyện, v.v.

Việc quản lý ảo giác AI là một nhiệm vụ phức tạp và kéo dài; hiện tại, các công nghệ vẫn chưa thể hoàn toàn giải quyết vấn đề này. Chúng ta cần không ngừng khám phá các phương pháp và kỹ thuật mới đồng thời tăng cường quản lý và đánh giá hệ thống AI, chỉ có như vậy AI mới trở nên an toàn, đáng tin cậy và có thể tin cậy.

Ảo giác AI: Một thực tế không thể né tránh

Chúng ta đã tìm hiểu nhiều phương pháp đối phó với ảo giác AI, chúng giống như những “vũ khí ma thuật” giúp chúng ta chống lại kẻ thù cố chấp của ảo giác AI. Tuy nhiên, một thực tế khắc nghiệt là: Ảo giác AI không thể bị tránh khỏi hoàn toàn.

Rào cản lý thuyết: Ranh giới năng lực của AI

“Ảo giác là không thể tránh khỏi: Một giới hạn bẩm sinh của các mô hình ngôn ngữ lớn” (Xu et al., 2024) bài viết này đã hé lộ nguyên nhân căn bản khiến ảo giác AI không thể bị loại bỏ: khả năng của mô hình AI có giới hạn.

  • Kiến thức của AI đến từ dữ liệu: Kiến thức của AI đến từ dữ liệu huấn luyện, và mô hình không thể vượt qua phạm vi dữ liệu đó, giống như học sinh không thể trả lời các câu hỏi bên ngoài nội dung sách giáo khoa.
  • Khả năng suy luận của AI còn hạn chế: Khả năng suy luận của AI có giới hạn, chỉ cần có đủ kiến thức cũng không thể suy tưởng hoặc liên tưởng như con người.

Do đó, ngay cả khi chúng ta không ngừng cải thiện chất lượng dữ liệu và tối ưu hóa cấu trúc mô hình, AI vẫn không thể nắm bắt mọi kiến thức cũng như có khả năng suy luận vô hạn.

Chứng cứ từ các trường hợp: Tính “cứng đầu” của ảo giác AI

Nhiều trường hợp ảo giác mà chúng ta đã đề cập trước đó cũng gián tiếp chứng minh tính “cứng đầu” của ảo giác AI. Không quan trọng là các tiền lệ pháp mà ChatGPT bịa ra, hay các trường hợp sai chẩn đoán từ AI trong lĩnh vực y tế, đều cho thấy ngay cả với những mô hình AI tiên tiến nhất cũng không thể tránh khỏi những lỗi sai.

Ảo giác AI: Một thực tế khách quan tồn tại

Tính không thể tránh khỏi của ảo giác AI là một thực tế khách quan, nó xuất phát từ chính những giới hạn của công nghệ AI, không phải do lỗi của con người hay bất kỳ sự sơ suất nào. Chúng ta cần chấp nhận thực tế này và giữ tư duy thận trọng khi tiếp cận công nghệ AI.

  • AI không phải là vạn năng: Chúng ta không thể mong đợi hệ thống AI có thể giải quyết mọi vấn đề, và không thể xem xét phán đoán của AI là sự thật tuyệt đối.
  • Thận trọng khi ứng dụng công nghệ AI: Trong việc áp dụng công nghệ AI cho các lĩnh vực quan trọng như y tế, tài chính, pháp luật, chúng ta cần thận trọng và thực hiện các biện pháp cần thiết để giảm thiểu rủi ro do ảo giác AI gây ra.
  • Cải tiến liên tục công nghệ AI: Sự không thể tránh khỏi của ảo giác AI không có nghĩa là chúng ta nên từ bỏ quá trình theo đuổi công nghệ AI. Ngược lại, chúng ta cần nỗ lực cải thiện công nghệ AI hơn nữa, tăng cường độ tin cậy và an toàn để trí tuệ nhân tạo thực sự phục vụ cho xã hội con người.

Một mặt khác của ảo giác AI: Những bất ngờ không ngờ

Mặc dù có những rủi ro tiềm tàng liên quan đến ảo giác AI, nhưng chúng ta cũng không thể chỉ vì điều đó mà phủ nhận tất cả giá trị của nó. Ảo giác AI giống như hai mặt của đồng xu, cũng chứa đựng những điều bất ngờ không ngờ, thậm chí có thể trở thành động lực thúc đẩy sự tiến bộ của xã hội.

“Sáng tạo” của AI: Kích thích sự sáng tạo của con người

Cũng như trong bài viết “Confidently Nonsensical?”: Một cuộc khảo sát đánh giá về những thách thức và cơ hội của ‘Ảo giác’ trong NLP (Narayanan Venkit et al., 2023), chỉ ra rằng ảo giác AI đôi khi lại tạo ra những đầu ra mới lạ, kỳ lạ, thậm chí vượt quá trí tưởng tượng của con người, điều này có thể cung cấp nguồn cảm hứng cho sự sáng tạo nghệ thuật và nghiên cứu khoa học của nhân loại.

  • Lĩnh vực sáng tạo nghệ thuật mới: Ảo giác AI có thể giúp nghệ sĩ vượt qua lối mòn sáng tạo truyền thống, khám phá những phong cách nghệ thuật và hình thức thể hiện mới.
    • Ví dụ, một số nghệ sĩ AI đã tận dụng hiệu ứng ảo giác từ các mô hình sinh hình để tạo ra những tác phẩm nghệ thuật với màu sắc siêu thực, để lại ấn tượng mạnh mẽ về thị giác.
  • Những ý tưởng mới trong khám phá khoa học: Ảo giác AI đôi khi sẽ tiết lộ những quy luật và mẫu ẩn giấu trong dữ liệu, những điều mà các nhà khoa học chưa chú ý đến nhưng có thể chứa đựng giá trị lớn về khoa học.
    • Ví dụ, khi một mô hình AI phân tích dữ liệu thiên văn, nó có thể “khám phá” ra một hiện tượng bất thường không thể lý giải, có thể thúc đẩy các nhà khoa học tìm kiếm lý thuyết vật lý mới để giải thích điều đó, từ đó thúc đẩy sự tiến bộ của khoa học.

“Thử nghiệm sai”: Thúc đẩy tiến bộ công nghệ

Sự xuất hiện của ảo giác AI cũng phản ánh quy trình thử nghiệm và sai sót trong quá trình phát triển công nghệ AI. Mỗi lần xuất hiện ảo giác, là một lần AI học tập và trưởng thành. Qua việc phân tích nguyên nhân gây ra ảo giác AI, chúng ta có thể hiểu rõ hơn về những giới hạn của mô hình AI và cải thiện cách thiết kế cũng như quy trình huấn luyện, từ đó thúc đẩy sự tiến bộ công nghệ AI.

Ví dụ, trước đây, các hệ thống dịch máy thường gặp lỗi “mất mát nội dung” do dịch không đúng, điều này thúc đẩy các nhà nghiên cứu không ngừng cải thiện thuật toán dịch thuật và cuối cùng phát triển ra những sản phẩm dịch máy chính xác hơn. Hiện nay, với sự áp dụng của công nghệ học sâu, chất lượng dịch máy đã được cải thiện đáng kể, nhưng ảo giác AI vẫn là một vấn đề cần được theo dõi và giải quyết.

Ảo giác AI: Dao hai lưỡi

Ảo giác AI là một con dao hai lưỡi, vừa có thể là động lực cho sự phát triển của nhân loại, vừa có thể dẫn đến những rủi ro không lường trước được. Chúng ta cần có cái nhìn biện chứng về ảo giác AI, không chỉ vì các rủi ro tiềm ẩn mà từ bỏ việc khám phá công nghệ AI, mà cũng không thể bỏ qua giá trị tiềm ẩn của nó.

  • Tận dụng điểm mạnh, tránh điểm yếu: Chúng ta cần biết tận dụng mặt tích cực của ảo giác AI, biến nó thành động lực cho sự sáng tạo và thúc đẩy tiến bộ công nghệ. Đồng thời tích cực nghiên cứu các biện pháp ứng phó với ảo giác AI, giúp giảm thiểu rủi ro đến mức tối đa.
  • Hợp tác giữa con người và AI: Việc không thể tránh khỏi ảo giác AI định nghĩa rằng con người phải luôn đóng vai trò quan trọng trong quá trình phát triển công nghệ AI. Chúng ta cần tăng cường quản lý và hướng dẫn các hệ thống AI, để trí tuệ nhân tạo luôn phục vụ