- Tính mờ ám hay “hộp đen” trong trí tuệ nhân tạo xuất hiện khi các mô hình, đặc biệt là các mô hình học sâu, đưa ra những quyết định mà ngay cả người tạo ra chúng cũng không thể giải thích rõ ràng.
- Việc thiếu minh bạch này tạo ra nguy cơ thiên vị, phân biệt đối xử, mất lòng tin và các vấn đề pháp lý trong việc chứng minh mối liên hệ nhân quả giữa hệ thống AI và một tác hại cụ thể.
- Trí tuệ nhân tạo có thể giải thích (XAI) kết hợp các mô hình có thể giải thích và các kỹ thuật hậu xử lý như LIME hoặc SHAP để mở một phần "hộp đen" và cung cấp các giải thích hữu ích cho người dùng và các cơ quan quản lý.
- Các quy định như GDPR, Đạo luật về Trí tuệ Nhân tạo và Chỉ thị về Trách nhiệm Sản phẩm yêu cầu các hệ thống AI phải được đăng ký, lập hồ sơ và kiểm toán, biến khả năng giải thích trở thành một yêu cầu về mặt đạo đức và pháp lý.

La cái gọi là “hộp đen” của trí tuệ nhân tạo Đây đã trở thành một trong những chủ đề gây tranh cãi nhất mỗi khi chúng ta bàn luận về nó. các thuật toán đưa ra quyết định Đối với chúng ta, chúng ta dựa vào các hệ thống đề xuất thuốc, cấp khoản vay hoặc lọc hồ sơ xin việc… nhưng thường thì… Chúng tôi không biết lý do tại sao họ lại đưa ra những quyết định đó.Ngay cả khi chúng ảnh hưởng trực tiếp đến quyền lợi của chúng ta.
Việc thiếu minh bạch này không chỉ là một vấn đề kỹ thuật: Nó có những hệ lụy về mặt đạo đức, pháp lý, xã hội và kinh doanh.Đó là lý do tại sao người ta bàn luận rất nhiều về tính mờ ám của thuật toán, khả năng giải thích (XAI) và các quy định mới như Đạo luật AI của châu Âu, nhằm mục đích thiết lập trật tự trong lĩnh vực này. Chúng ta hãy cùng xem xét vấn đề này một cách bình tĩnh nhưng chi tiết. Vậy chính xác thì tính mờ đục hay "hộp đen" trong trí tuệ nhân tạo là gì?Tại sao nó xuất hiện, những rủi ro nào nó tiềm ẩn, và những nỗ lực nào đang được thực hiện để mở chiếc hộp đó mà không làm mất đi những lợi thế của công nghệ.
"Hộp đen" và tính mờ đục có nghĩa là gì trong trí tuệ nhân tạo?
Trong bối cảnh trí tuệ nhân tạo, một “Hộp đen” là một hệ thống mà các quá trình bên trong của nó không thể được hiểu rõ ràng.Chúng ta biết dữ liệu đầu vào là gì và kết quả đầu ra ra sao, nhưng "con đường" trung gian lại khó hiểu hoặc khó tiếp cận đối với con người, ngay cả đối với nhiều nhà phát triển.
Hiện tượng này chủ yếu liên quan đến các mô hình học máy phức tạp, chẳng hạn như mạng nơ-ron sâu.Chúng hoạt động với hàng nghìn hoặc hàng triệu tham số được phân bổ trên nhiều lớp. Không giống như thuật toán cổ điển dựa trên các quy tắc minh bạch, ở đây mô hình học hỏi từ kinh nghiệm, điều chỉnh trọng số bên trong sao cho... Không ai có thể tự mình theo dõi chính xác sự kết hợp nào của các tế bào thần kinh dẫn đến một phản ứng cụ thể..
Độ mờ đục có thể xuất hiện theo hai cách khác nhau nhưng bổ sung cho nhau: một mặt, bởi vì Công ty quyết định không tiết lộ mã nguồn hoặc thông tin chi tiết của mẫu sản phẩm. (để bảo vệ quyền sở hữu trí tuệ của họ hoặc vì chiến lược thương mại thuần túy); mặt khác, bởi vì Sự phức tạp về mặt toán học và thống kê vốn có khiến cho việc giải thích một cách trực quan bằng con người gần như là điều không thể.Mặc dù mã nguồn là mã nguồn mở.
Trong trường hợp thứ hai này, chúng ta thường nói về “hộp đen hữu cơ“Ngay cả những người tạo ra hệ thống cũng không thể mô tả chính xác các mô hình nội tại mà AI đã học được hoặc cách nó kết hợp chúng trong mỗi quyết định. Với các mô hình học sâu, đây là điều bình thường chứ không phải ngoại lệ.”
Khi làm việc với các hệ thống này, chúng ta chỉ có thể quan sát rõ ràng các cuộc gọi. Các lớp hiển thị: lớp đầu vào và lớp đầu raChúng ta thấy dữ liệu được nhập vào (hình ảnh, văn bản, biến số) và các dự đoán hoặc phân loại được đưa ra (được chấp thuận/bị từ chối, chẩn đoán, khuyến nghị…). Nhưng điều gì xảy ra trong nhiều hệ thống khác nhau? các lớp trung gian ẩn Về cơ bản, nó vẫn nằm ngoài tầm hiểu biết của chúng ta.
Cách thức hoạt động của các mô hình hộp đen: mạng nơ-ron và học sâu
Để hiểu được nguồn gốc của sự thiếu minh bạch này, việc xem xét lại, dù chỉ là những điểm chính, cũng rất hữu ích. Các mô hình học sâu được cấu trúc như thế nào?Thay vì một công thức đơn giản duy nhất, các hệ thống này được tạo thành từ các mạng nơ-ron với nhiều lớp (đôi khi hàng trăm lớp) và một số lượng lớn nơ-ron trong mỗi lớp.
Về cơ bản, mỗi tế bào thần kinh là... Một đoạn mã nhỏ nhận đầu vào, áp dụng phép biến đổi toán học và tạo ra đầu ra.Quá trình học tập bao gồm việc điều chỉnh, thông qua hàng triệu ví dụ, trọng số và ngưỡng của tất cả các nơ-ron này sao cho hệ thống giảm thiểu lỗi dự đoán. Vấn đề là, sau khi được huấn luyện, kết quả là một mạng lưới tham số khổng lồ mà... Nó không tương ứng với các khái niệm rõ ràng và riêng biệt của con người..
Loại mạng này có thể tiếp nhận khối lượng lớn dữ liệu thô (hình ảnh, âm thanh, văn bản tự do, dữ liệu cảm biến) và phát hiện các mẫu có độ phức tạp cực lớn: các mối quan hệ phi tuyến tính, sự kết hợp của các đặc điểm rất tinh tế, các mối tương quan vượt ngoài trực giác của chúng ta. Nhờ đó, họ có thể Dịch ngôn ngữ, tạo hình ảnh, viết văn bản mạch lạc hoặc phân tích tia X chính xác. Tương đương với trình độ của các chuyên gia.
Nhưng sức mạnh đó đi kèm với một cái giá: những hình ảnh nội tâm mà chúng tạo ra (ví dụ, hình ảnh nổi tiếng) nhúng vector) là các cấu trúc số đa chiều mà Chúng không hoàn toàn phù hợp với các phạm trù đơn giản của con người.Chúng ta có thể trực giác rằng một số vectơ nhất định nhóm các ý nghĩa tương tự lại với nhau hoặc một số tế bào thần kinh nhất định phản ứng với các mô hình cụ thể, nhưng việc lập bản đồ đầy đủ trên thực tế là không thể.
Ngay cả khi mô hình là mã nguồn mở và chúng ta có thể thấy tất cả các dòng lập trình, Điều đó không có nghĩa là chúng ta có thể giải thích chi tiết mọi dự đoán.Có thể theo dõi luồng dữ liệu giữa các lớp và các thao tác được áp dụng, nhưng không thể lý giải tại sao một tổ hợp cụ thể của hàng triệu tham số lại dẫn đến kết quả "được chấp thuận" đối với người này và "bị từ chối" đối với người khác.
Tóm lại Hộp đen không chỉ xuất phát từ bí mật doanh nghiệp.Đây cũng là hệ quả của việc lựa chọn các kiến trúc cực kỳ phức tạp, tối ưu hóa độ chính xác nhưng lại hy sinh khả năng giải thích.
Sự mập mờ, thiên vị và phân biệt đối xử: khi "hộp đen" gây hại
Việc thiếu minh bạch không chỉ là một nhược điểm về mặt lý thuyết. Tính thiếu minh bạch của thuật toán có thể dẫn đến các quyết định không công bằng, phân biệt đối xử hoặc hoàn toàn sai trái.mà không có cách nào rõ ràng để phát hiện vấn đề hoặc khắc phục kịp thời.
Một ví dụ thường được nhắc đến là dự án Sắc thái giới tínhNghiên cứu này do Joy Buolamwini và Timnit Gebru thực hiện, phân tích nhiều hệ thống nhận diện khuôn mặt thương mại khác nhau. Nghiên cứu cho thấy rằng: Tỷ lệ sai sót cao hơn nhiều khi nhận dạng phụ nữ da sẫm màu. Khi xác định nam giới có làn da sáng màu: trong một số trường hợp, tỷ lệ sai sót lên tới hơn 34% so với tỷ lệ dưới 1% ở nhóm được điều trị tốt nhất.
Dựa trên kết quả tổng thể, các hệ thống này dường như hoạt động tốt. Nhưng Phân tích các lỗi theo giới tính và màu da. Những bất bình đẳng đáng lo ngại đã được phơi bày. Đó chính xác là một trong những nhược điểm của "hộp đen": Những sai sót nghiêm trọng có thể bị che giấu trong những điều bình thường. và sẽ không bị phát hiện nếu không ai xem xét kỹ lưỡng kết quả.
Loại thiên kiến này thường là ngoài ý muốn. Trí tuệ nhân tạo học hỏi từ dữ liệu mà chúng ta cung cấp cho nó, và nếu dữ liệu đó phản ánh sự bất bình đẳng trong lịch sử hoặc không đại diện đầy đủ cho một số nhóm nhất định, Mô hình này tái tạo và khuếch đại những bất công đó mà không cần ai "ra lệnh" một cách rõ ràng cho nó làm như vậy.Và vì tính chất không rõ ràng của nó, việc phát hiện ra những biến số hoặc sự kết hợp nào đang tạo ra sự phân biệt trở thành một nhiệm vụ rất phức tạp.
Độ mờ đục cũng khiến mọi việc trở nên khó khăn hơn. xác định các lỗi hoặc điểm yếu mang tính hệ thốngNếu chúng ta không biết mô hình "suy luận" như thế nào, sẽ khó dự đoán hơn loại đầu vào nào có thể khiến nó "ảo giác" (tạo ra các phản hồi sai nhưng thuyết phục) hoặc rơi vào bẫy đối kháng được thiết kế để thao túng nó.
Tất cả những điều này đều dẫn đến một hệ quả rõ ràng: Niềm tin giữa người dùng, khách hàng và chính quyền đang bị xói mòn.Nếu ai đó phải chịu một quyết định tiêu cực dựa trên trí tuệ nhân tạo và không ai có thể giải thích rõ ràng những yếu tố nào đã được xem xét, thì việc nảy sinh nghi ngờ về tính công bằng và tính hợp pháp của hệ thống là điều dễ hiểu.
Tác động về mặt đạo đức, pháp lý và trách nhiệm pháp lý
Từ góc độ pháp lý, hộp đen tạo ra một vấn đề nghiêm trọng: Điều này làm phức tạp thêm việc chứng minh mối liên hệ nhân quả giữa hệ thống AI và thiệt hại đã xảy ra.Để xác định trách nhiệm dân sự, thường cần có sự kết hợp giữa thiệt hại, hành vi sai phạm hoặc khiếm khuyết, và mối liên hệ nhân quả. Khi quyết định dựa trên một mô hình không rõ ràng, yếu tố thứ ba này trở nên không ổn định.
Trong thế giới analog, việc thảo luận về việc bị sa thải, bị từ chối cấp tín dụng hoặc bị hạn chế truy cập được thực hiện bằng cách xem xét lại. tài liệu, tiêu chí, nhân chứng và động cơ rõ ràngVới các mô hình AI, nhiều lớp suy luận khó tái tạo được lồng ghép giữa dữ liệu đầu vào và quyết định cuối cùng, thường được quản lý bởi một chuỗi các tác nhân (nhà cung cấp mô hình, nhà tích hợp, công ty người dùng, bên thứ ba cung cấp dữ liệu) mà làm giảm quyền kiểm soát của ai..
Hơn nữa, có một động lực rõ ràng để giữ cho quầy thu ngân luôn đóng: Kẻ điều hành có thể che giấu hành vi của mình bằng bí mật thương mại hoặc sự phức tạp về mặt kỹ thuật. Để tránh tiết lộ thông tin liên quan trong quá trình kiện tụng. Nếu nạn nhân không thể truy cập vào hồ sơ, tài liệu kỹ thuật hoặc dấu vết quyết định, việc chứng minh thiệt hại là do hệ thống AI gây ra gần như là bất khả thi.
Phản hồi từ cơ quan lập pháp châu Âu rất mạnh mẽ: nếu không thể giải thích đầy đủ, Không thể dồn toàn bộ gánh nặng của bài kiểm tra lên vai bộ phận yếu nhất.Do đó, chúng ta thấy các quy định mới yêu cầu lưu giữ nhật ký hệ thống, ghi chép cách thức hoạt động của hệ thống, ủy quyền kiểm toán và, về mặt thủ tục, Mở ra cơ hội trình bày bằng chứng và các giả định có lợi cho bên bị thiệt hại. Khi người điều hành không hợp tác.
Ví dụ, hãy xem xét một công ty sử dụng các công cụ AI trong quản lý nhân sự để Sàng lọc hồ sơ xin việc, đánh giá hiệu suất hoặc đề xuất thăng chứcVề mặt chính thức, quyết định cuối cùng thuộc về một người, nhưng trên thực tế, nó phụ thuộc rất nhiều vào các báo cáo do trí tuệ nhân tạo tạo ra. Nếu một người lao động bị từ chối hoặc sa thải và không được cấp quyền truy cập vào... Dữ liệu nào đã được sử dụng, trọng số của nó là bao nhiêu, và những mẫu nào đã được phát hiện. Cũng không cần tài liệu kỹ thuật nào hỗ trợ hệ thống; hộp đen không chỉ quyết định mà còn... ngăn cản việc phản đối quyết định một cách hiệu quả..
Trí tuệ nhân tạo có thể giải thích và khả năng diễn giải: nỗ lực mở chiếc hộp
Để giảm thiểu những vấn đề này, lĩnh vực nghiên cứu về... Trí tuệ nhân tạo có thể giải thích được (Explainable AI hay XAI)Mục tiêu không phải là "dịch" từng dòng lệnh của thuật toán, mà là cung cấp những giải thích hữu ích, dễ hiểu và có thể áp dụng được về lý do tại sao mô hình lại đưa ra quyết định đó.
Có hai cách tiếp cận chính. Một mặt, có... mô hình có thể giải thích nội tại hoặc mô hình hộp trắngCác thuật toán đơn giản như hồi quy tuyến tính, cây quyết định đơn giản hoặc các quy tắc logic cho thấy rõ ràng những biến nào được bao gồm, những quy tắc nào được áp dụng và kết quả đạt được như thế nào. Các loại mô hình này tạo điều kiện thuận lợi cho việc kiểm toán và truy xuất nguồn gốc, mặc dù đôi khi chúng phải hy sinh một phần độ chính xác.
Mặt khác, chúng ta có các mô hình phức tạp (hộp đen) mà các kỹ thuật giải thích hậu nghiệm được áp dụng.Đây là lúc các công cụ như LIME, SHAP, bản đồ nổi bật hoặc Grad-CAM phát huy tác dụng, cho phép chúng ta ước tính những đặc điểm nào có trọng lượng lớn nhất trong một dự đoán cụ thể, hoặc hình dung những khu vực nào của hình ảnh đóng vai trò quyết định đối với chẩn đoán.
Ví dụ, trong môi trường y tế, các kỹ thuật kiểu SHAP đã được sử dụng để phân tích các mô hình hình ảnh chẩn đoán và phát hiện ra rằng, trong một số trường hợp, hệ thống lại quá chú trọng đến các dấu hiệu hoặc chú thích trên phim X-quang hơn là các mô hình lâm sàng có liên quan. Việc phát hiện những sai lệch này cho phép hiệu chỉnh mô hình và giảm thiểu rủi ro.
Hơn nữa, khả năng giải thích còn có một khía cạnh quan trọng liên quan đến con người: Lời giải thích sẽ chẳng có ích gì nếu người nhận không hiểu.Nhu cầu của bác sĩ không giống với kỹ sư dữ liệu, nhu cầu của thẩm phán không giống với bệnh nhân hay khách hàng ngân hàng. Đó là lý do tại sao chúng tôi làm việc theo phương pháp đa ngành, kết hợp công nghệ với tâm lý học nhận thức và thiết kế giao diện để điều chỉnh cách giải thích sao cho phù hợp với đối tượng người nhận.
Trí tuệ nhân tạo hộp đen, hộp trắng và trí tuệ nhân tạo có thể giải thích được: chúng khác nhau như thế nào?
Các thuật ngữ “hộp trắng”, “hộp đen” và “trí tuệ nhân tạo có thể giải thích” thường được sử dụng thay thế cho nhau, nhưng chúng không hoàn toàn giống nhauViệc làm rõ các thuật ngữ là rất quan trọng vì sự nhầm lẫn này sẽ dẫn đến những hiểu lầm nghiêm trọng.
Un mô hình hộp trắng là người Cơ chế hoạt động bên trong minh bạch và dễ hiểu.Rất dễ dàng để nhận thấy các biến số liên quan, cách chúng kết hợp, các quy tắc áp dụng và cách đầu vào trở thành đầu ra. Các ví dụ điển hình là: hồi quy tuyến tính được xác định rõ ràng hoặc cây quyết định đơn giảnCác mô hình này tự giải thích được: cấu trúc của chúng đã đóng vai trò như một lời giải thích.
Un mô hình hộp đenMặt khác, đó là một hệ thống mà logic nội tại của nó không dễ hiểu. Điều này bao gồm... mạng nơ-ron sâu, rừng ngẫu nhiên phức tạp cao, thuật toán tăng cường kiểu XGBoost và nói chung, bất kỳ hệ thống nào có nhiều lớp tham số khó chuyển đổi thành các quy tắc rõ ràng cho con người.
La AI có thể giải thích (XAI) Đó là một thuật ngữ rộng hơn bao gồm cả các mô hình hộp trắng và các kỹ thuật được áp dụng cho hộp đen để tạo ra các giải thích hậu nghiệmMột mô hình rất phức tạp có thể được coi là "có thể giải thích được" nếu nó đi kèm với các công cụ cho phép, ví dụ, phân tích tầm quan trọng của các biến số, trực quan hóa các điểm nổi bật hoặc tạo ra các ví dụ tương phản ("nếu mức lương của bạn là X và thâm niên của bạn là Y, kết quả sẽ thay đổi").
Trên thực tế, nhiều tổ chức đang kết hợp cả hai phương pháp này: Họ sử dụng các mô hình đơn giản khi tính minh bạch quan trọng hơn tính chính xác. (các trường hợp được quản lý chặt chẽ) và sử dụng các mô hình mạnh mẽ hơn kèm theo XAI khi cần tối đa hóa khả năng dự đoán, nhưng không hoàn toàn từ bỏ việc diễn giải.
Quy định của châu Âu: Đạo luật về trí tuệ nhân tạo, GDPR và trách nhiệm sản phẩm.
Liên minh châu Âu đã quyết định giải quyết vấn đề tính thiếu minh bạch của thuật toán từ nhiều khía cạnh. Một mặt, Quy định chung về bảo vệ dữ liệu (RGPD) Luật hiện hành đã đặt ra một số nghĩa vụ nhất định khi các quyết định tự động được đưa ra dựa trên dữ liệu cá nhân, yêu cầu phải cung cấp thông tin "có ý nghĩa" về thuật toán được sử dụng theo cách mà bên bị ảnh hưởng có thể hiểu được.
Thêm vào đó là Đạo luật về trí tuệ nhân tạo hoặc Quy định về trí tuệ nhân tạo của châu Âucó hiệu lực từ tháng 8 năm 2024, quy định này thiết lập một khuôn khổ cụ thể cho việc phát triển và triển khai các hệ thống trí tuệ nhân tạo (AI) tại EU. Quy định này phân loại các hệ thống theo mức độ rủi ro., trực tiếp cấm những hành vi có “rủi ro không thể chấp nhận được” (chẳng hạn như chấm điểm xã hội theo kiểu tín dụng xã hội đại chúng hoặc một số kỹ thuật thao túng hành vi cực đoan).
Hệ thống rủi ro cao (ví dụ, một số ứng dụng trong lĩnh vực y tế, tài chính, nhân sự, giáo dục hoặc lực lượng an ninh) phải tuân thủ các nghĩa vụ nghiêm ngặt: họ phải có Tài liệu kỹ thuật chi tiết, hệ thống ghi nhật ký tự động cho phép truy xuất nguồn gốc, thông tin rõ ràng và dễ hiểu cho người dùng. và các cơ chế giám sát hiệu quả của con người.
Hơn nữa, Đạo luật về Trí tuệ Nhân tạo (AI) quy định... nghĩa vụ minh bạch Trong các trường hợp như sử dụng chatbot hoặc công cụ tạo nội dung tự động, cần phải cảnh báo người dùng khi họ tương tác với trí tuệ nhân tạo và, trong một số trường hợp, phải gắn nhãn cho nội dung được tạo tự động. Nhiều nghĩa vụ này sẽ được thực hiện dần dần trong những năm tới, bắt đầu từ những trường hợp có tác động lớn nhất.
Trong khi đó, cái mới Chỉ thị (EU) 2024/2853 về trách nhiệm pháp lý đối với sản phẩm lỗi Chỉ thị này cập nhật khuôn khổ trách nhiệm dân sự để thích ứng với môi trường mà sản phẩm cũng có thể là phần mềm và nơi các lỗi có thể bắt nguồn từ các chức năng kỹ thuật số. Chỉ thị này công nhận rõ ràng... sự phức tạp về kỹ thuật và khoa học của các hệ thống AI và cho phép thẩm phán yêu cầu trình bày các bằng chứng liên quan, bao gồm cả bằng chứng kỹ thuật số, một cách dễ tiếp cận và dễ hiểu.
Nếu người vận hành không hợp tác hoặc vi phạm các nghĩa vụ an toàn, những điều sau đây có thể xảy ra: giả định về khiếm khuyết và nguyên nhânNói cách khác, nếu bên bị hại cung cấp bằng chứng hợp lý và bị cáo không cung cấp hồ sơ hoặc tài liệu mà tòa án yêu cầu, pháp luật sẽ bù đắp sự mất cân bằng về bằng chứng bằng cách nghiêng cán cân về phía nạn nhân.
Toàn bộ gói quy định này gửi đi một thông điệp rõ ràng: Bất cứ ai đưa sự phức tạp của thuật toán vào thị trường đều phải có trách nhiệm đảm bảo tính minh bạch và khả năng kiểm toán của nó.Hộp đen không còn là lợi thế phòng thủ mà trở thành rủi ro về tuân thủ quy định và uy tín.
Tính minh bạch, các mô hình mở và những thách thức đang chờ giải quyết
Một cách để giảm bớt sự thiếu minh bạch là đầu tư vào... các mô hình mã nguồn mở và thực tiễn lập tài liệu toàn diệnCác hệ thống mở cho phép các nhà nghiên cứu, cơ quan quản lý và cộng đồng kỹ thuật kiểm tra mã nguồn, tái tạo các thí nghiệm và phát hiện các sai lệch hoặc lỗ hổng tiềm ẩn.
Tuy nhiên, ngay cả với mã nguồn mở, chúng ta vẫn còn vấn đề cốt lõi: khả năng giải thích các tham số và biểu diễn nội bộTính minh bạch về khả năng truy cập không tự động đồng nghĩa với tính minh bạch về sự hiểu biết. Đó là lý do tại sao người ta rất chú trọng đến việc kết hợp tính cởi mở với các kỹ thuật truy cập mở và các quy trình quản trị và kiểm toán rõ ràng.
Các nhà chức trách và chuyên gia nhấn mạnh tầm quan trọng của thúc đẩy văn hóa minh bạch và trách nhiệm giải trìnhDuy trì hồ sơ đào tạo và sử dụng chi tiết, ghi chép các thay đổi mô hình, xác định các quy trình giám sát của con người và thiết kế giao diện giải thích khả năng, hạn chế và rủi ro của hệ thống cho người dùng.
Công việc cũng đang được thực hiện trên kỹ thuật giải thích mớiChẳng hạn như các bộ mã hóa tự động thưa thớt và các phương pháp khác nhằm mục đích trích xuất các yếu tố tiềm ẩn "sạch hơn" và dễ đọc hơn từ các mô hình rất phức tạp. Ý tưởng là dần dần tiếp cận một loại "hộp kính", nơi độ phức tạp bên trong vẫn được giữ nguyên, nhưng với các lớp giải thích mạnh mẽ hơn.
Tuy nhiên, các chuyên gia thừa nhận rằng Chúng tôi sẽ không làm cho tất cả các mô hình hoàn toàn trong suốt.Thách thức thực sự là cân bằng giữa độ chính xác, hiệu quả và khả năng giải thích, tập trung vào việc làm cho những hệ thống đưa ra quyết định có tác động lớn đến các quyền cơ bản trở nên dễ hiểu nhất.
Tóm lại, làm việc với trí tuệ nhân tạo ngày nay đòi hỏi phải giả định rằng: Mối quan hệ này cần phải dựa trên sự hợp tác, chứ không phải sự mù quáng.Máy móc cung cấp sức mạnh tính toán và khả năng nhận diện mẫu, nhưng con người vẫn phải tiếp tục thiết lập các tiêu chuẩn đạo đức, xác nhận các kết quả quan trọng và yêu cầu những lời giải thích hợp lý khi có điều gì đó không hợp lý.
Trong bối cảnh này, cái gọi là “tính mờ ảo” hay hiệu ứng hộp đen của AI không chỉ là một vấn đề kỹ thuật mà còn là một vấn đề khác. Điểm mấu chốt của sự xung đột giữa đổi mới và điều tiết cũng như niềm tin xã hộiKhi luật pháp châu Âu, các kỹ thuật trí tuệ nhân tạo và các thực tiễn quản trị tốt phát triển, "hộp đen" không còn là một bí ẩn không thể giải đáp mà bắt đầu được nhìn nhận nhiều hơn như một hệ thống, mặc dù phức tạp, nhưng có thể và nên được làm sáng tỏ đủ để công dân, doanh nghiệp và tòa án có thể tin tưởng vào các quyết định của nó.
Người viết đam mê về thế giới byte và công nghệ nói chung. Tôi thích chia sẻ kiến thức của mình thông qua viết lách và đó là những gì tôi sẽ làm trong blog này, cho bạn thấy tất cả những điều thú vị nhất về tiện ích, phần mềm, phần cứng, xu hướng công nghệ, v.v. Mục tiêu của tôi là giúp bạn điều hướng thế giới kỹ thuật số một cách đơn giản và thú vị.