Download on the App Store

Chủ nghĩa dân tộc có phải là mối đe dọa cho hợp tác quốc tế

Trí tuệ nhân tạo có nên được trao quyền ra quyết định trong các lĩnh vực nhạy cảm?

Trí tuệ nhân tạo (AI) đang ngày càng thâm nhập sâu vào các khía cạnh then chốt của đời sống — từ chẩn đoán y khoa, xét xử hình sự, đến tuyển dụng và tín dụng. Những hệ thống AI hiện đại không còn chỉ dừng lại ở mức hỗ trợ; chúng đang được kỳ vọng đưa ra các quyết định mang tính then chốt, ảnh hưởng trực tiếp đến sinh mạng, công lý và quyền lợi cơ bản của con người. Trong bệnh viện, AI có thể phát hiện ung thư sớm hơn bác sĩ; trong toà án, thuật toán dự báo nguy cơ tái phạm để định mức án; trong ngân hàng, AI tự động phê duyệt hoặc từ chối khoản vay chỉ trong vài giây. Tốc độ và quy mô ứng dụng AI đang vượt xa khả năng kiểm soát của luật pháp và đạo đức truyền thống.

Tuy nhiên, chính vì những quyết định này nằm ở “vùng nhạy cảm” — nơi mà sai lầm không chỉ là lỗi kỹ thuật mà có thể hủy hoại cuộc đời một con người — nên câu hỏi đặt ra trở nên cấp thiết: Liệu chúng ta có thể tin tưởng giao vận mệnh cá nhân và xã hội cho những cỗ máy vô tri? Việc trao quyền ra quyết định cho AI trong các lĩnh vực nhạy cảm liệu có đánh đổi hiệu quả lấy đạo đức, hay ngược lại, đây chính là bước tiến tất yếu để khắc phục những giới hạn cố hữu của con người?

Bối cảnh và phạm vi tranh luận

Khi nói đến “lĩnh vực nhạy cảm”, chúng ta ám chỉ những ngành nghề mà quyết định có hậu quả nghiêm trọng, lâu dài và thường không thể đảo ngược — ví dụ như chẩn đoán bệnh hiểm nghèo, phán quyết tội phạm, cấp thị thực di cư, hay đánh giá tín nhiệm tài chính. Ở những nơi này, mỗi lựa chọn đều chất chứa yếu tố đạo đức, xã hội và nhân văn sâu sắc. Trong quá khứ, những quyết định như vậy luôn được giao cho con người — những cá thể được cho là có lương tâm, khả năng thông cảm và trách nhiệm giải trình.

Thế nhưng, trong bối cảnh dữ liệu bùng nổ và nhu cầu xử lý nhanh chóng gia tăng, AI đang được triển khai rộng rãi. Hệ thống IBM Watson từng được kỳ vọng cách mạng hóa y học bằng cách đề xuất phác đồ điều trị ung thư dựa trên hàng triệu hồ sơ nghiên cứu. Ở Mỹ, thuật toán COMPAS được dùng để đánh giá nguy cơ tái phạm của bị cáo, góp phần ảnh hưởng đến mức án và thời gian tù. Ở châu Âu, nhiều ngân hàng sử dụng AI để sàng lọc hồ sơ vay vốn, giảm thiểu rủi ro tín dụng. Dù mang lại hiệu suất cao, những ứng dụng này cũng làm dấy lên lo ngại về công bằng, minh bạch và quyền kiểm soát của con người.

Từ đó, tranh luận trung tâm dần hình thành: AI nên đóng vai trò hỗ trợ — như một công cụ nâng cao năng lực chuyên môn — hay có thể thay thế hoàn toàn con người trong việc ra quyết định hệ trọng? Câu trả lời không chỉ phụ thuộc vào công nghệ, mà còn vào cách xã hội nhìn nhận về đạo đức, trách nhiệm và bản chất của quyền lực ra quyết định.


Lập luận ủng hộ việc trao quyền ra quyết định cho AI trong lĩnh vực nhạy cảm

Tính khách quan: Khi máy móc loại bỏ định kiến con người

Một trong những điểm yếu cố hữu của con người trong các quyết định nhạy cảm là sự can thiệp của cảm xúc, thiên kiến vô thức và định kiến xã hội. Trong tuyển dụng, một nhà quản lý có thể vô tình ưu ái ứng viên cùng giới tính, sắc tộc hay trường đại học. Trong hệ thống tư pháp, thẩm phán mệt mỏi sau một ngày dài có thể xử nặng hơn bình thường — một hiện tượng đã được nghiên cứu và xác nhận qua nhiều khảo sát tâm lý. Chính những yếu tố phi lý trí này khiến công bằng – một giá trị nền tảng – bị xói mòn.

AI, nếu được thiết kế và huấn luyện đúng cách, có thể vượt qua những rào cản này. Không có cảm xúc, không mệt mỏi, không thành kiến cá nhân, một thuật toán ra quyết định dựa trên dữ liệu và logic – ít nhất về mặt lý thuyết. Một hệ thống AI xét duyệt hồ sơ y tế hay pháp lý sẽ đánh giá mọi trường hợp theo cùng một bộ tiêu chí, bất kể tên người bệnh, sắc tộc hay địa vị xã hội. Ở mức độ lý tưởng, điều này mở ra khả năng cho một xã hội công bằng hơn – nơi quyết định không phụ thuộc vào “ai bạn là” mà vào “dữ liệu nói gì”.

Tất nhiên, điều kiện then chốt nằm ở cụm từ “nếu được huấn luyện đúng cách”. Nhưng chính việc đặt ra yêu cầu ấy lại cho thấy một lợi thế lớn: trong khi định kiến con người thường ẩn sâu, khó nhận diện và gần như không thể loại bỏ hoàn toàn, thì định kiến trong AI lại có thể được phát hiện, đo lường và hiệu chỉnh. Khả năng kiểm toán, rà soát và cập nhật mô hình khiến AI trở thành một hệ thống minh bạch hơn so với tâm trí con người – thứ vẫn còn là “vùng đất chưa được khám phá” về mặt đạo đức ra quyết định.

Vượt qua giới hạn sinh học: Xử lý dữ liệu khổng lồ trong nháy mắt

Trí tuệ nhân tạo không chỉ khách quan hơn – nó còn siêu việt hơn con người ở khía cạnh tốc độ và quy mô xử lý thông tin. Trong y tế, một bác sĩ giỏi có thể đọc hàng chục bản chụp X-quang mỗi ngày, nhưng không thể nào so sánh từng pixel với hàng triệu ca bệnh đã biết. Trong khi đó, một mô hình AI như DeepMind’s retinal scan system có thể phát hiện hơn 50 bệnh nhãn khoa từ hình ảnh đáy mắt với độ chính xác ngang hoặc vượt chuyên gia, chỉ trong vài giây.

Tương tự, trong lĩnh vực tài chính, các tổ chức tín dụng truyền thống dựa vào hồ sơ tín dụng đơn giản để đánh giá rủi ro – một phương pháp thô sơ, loại bỏ nhiều đối tượng “vô hình” như người trẻ, lao động tự do hay cư dân vùng sâu. AI, ngược lại, có thể phân tích hàng trăm biến số – từ lịch sử giao dịch điện tử, hành vi sử dụng điện thoại, đến mô hình di chuyển – để xây dựng bức tranh rủi ro toàn diện hơn. Điều này không chỉ tăng độ chính xác mà còn mở rộng quyền tiếp cận dịch vụ cho những nhóm bị thiệt thòi.

Sự vượt trội này không phải là cạnh tranh công bằng giữa người và máy – mà là bổ sung. Khi khối lượng dữ liệu trong thế giới hiện đại tăng theo cấp số nhân, kỳ vọng con người có thể xử lý và đưa ra quyết định tối ưu là phi thực tế. AI không thay thế con người vì nó “tốt hơn”; nó thay thế vì con người không thể làm nổi nhiệm vụ đó ở quy mô và tốc độ cần thiết.

Học hỏi không ngừng: Mô hình sống thay vì tri thức đóng băng

Khác với con người – những cá thể có giới hạn về thời gian học tập, xu hướng bảo thủ và dễ sa vào kinh nghiệm cá nhân – AI được thiết kế để học liên tục. Mỗi lần ra quyết định, mỗi phản hồi từ thực tế, đều có thể được sử dụng để cải tiến mô hình. Đây là lợi thế then chốt trong các lĩnh vực luôn vận động như y học hay an ninh mạng.

Hãy tưởng tượng một bác sĩ học xong bằng y khoa năm 1995 và không cập nhật kiến thức nào sau đó. Họ sẽ không biết đến những liệu pháp ung thư mới, các phương pháp chẩn đoán gen hay vắc-xin mRNA. Nhưng với AI, việc cập nhật không cần chờ hội thảo hay khóa học – chỉ cần thêm dữ liệu mới vào tập huấn luyện, mô hình có thể điều chỉnh ngay lập tức. Hệ thống chẩn đoán bệnh hô hấp chẳng hạn, có thể được cập nhật chỉ vài tuần sau khi một chủng virus mới xuất hiện, trong khi quy trình đào tạo lại đội ngũ y tế có thể mất cả năm.

Điều này biến AI từ một công cụ tĩnh thành một hệ thống sống – luôn thích nghi, luôn cải tiến. Trong một thế giới mà kiến thức y học được ước tính gấp đôi cứ sau 73 ngày, khả năng học suốt đời của AI không còn là lợi thế cạnh tranh – mà là điều kiện tiên quyết để tồn tại.


Lập luận phản đối việc trao quyền ra quyết định cho AI trong lĩnh vực nhạy cảm

Thiếu vắng lương tâm: Khi máy móc không thể cảm nhận hậu quả

Một trong những đặc điểm định hình bản chất con người trong các quyết định hệ trọng — từ y tế đến tư pháp — chính là khả năng cảm thông và lương tâm. Một bác sĩ đưa ra lựa chọn ngừng điều trị cho bệnh nhân cuối đời không chỉ dựa trên số liệu sinh tồn, mà còn dựa trên sự thấu hiểu nỗi đau, giá trị sống và mong muốn của người bệnh. Một thẩm phán tuyên án tử hình không chỉ cân đo mức độ nghiêm trọng của tội phạm, mà còn phải đối diện với gánh nặng đạo đức của việc tước đoạt mạng sống.

AI, dù có thể mô phỏng hành vi ra quyết định, không bao giờ trải nghiệm hậu quả. Nó không biết sợ hãi, không cảm thấy tội lỗi, không run rẩy khi ký một bản án khiến một gia đình tan nát. Trong y học, một thuật toán có thể đề xuất cắt bỏ chi vì nguy cơ nhiễm trùng cao 92%, nhưng nó không nhìn thấy giọt nước mắt của đứa trẻ mất chân; nó không hiểu rằng với một nghệ sĩ múa, mất chi dưới không chỉ là vấn đề sức khỏe — mà còn là mất đi cả danh tính.

Điều này đặt ra câu hỏi then chốt: Liệu một quyết định có thể được coi là “đúng” nếu nó thiếu vắng yếu tố nhân văn? Trong các xã hội hiện đại, công lý không chỉ là tuân thủ luật lệ — mà còn là sự công nhận phẩm giá con người. Một hệ thống AI, dù tối ưu về mặt hiệu suất, có thể đạt được sự “công bằng hình thức” (fairness as consistency), nhưng lại thất bại hoàn toàn trong việc thể hiện công bằng cảm thông (fairness as empathy). Khi chúng ta giao phó những quyết định ảnh hưởng đến vận mệnh cá nhân cho những cỗ máy vô cảm, chúng ta không chỉ tự động hóa quy trình — mà còn phi nhân hóa xã hội.

Thiên kiến bị mã hóa: Dữ liệu sạch không tồn tại

Một niềm tin phổ biến là AI có thể loại bỏ định kiến vì nó “chỉ dựa vào dữ liệu”. Nhưng thực tế phũ phán niềm tin ấy: AI không loại bỏ thiên kiến — nó hấp thụ và khuếch đại chúng. Bởi vì dữ liệu huấn luyện không phải là sản phẩm của một thế giới khách quan, mà là bản sao của lịch sử con người — nơi đầy rẫy bất công, phân biệt và quyền lực méo mó.

Hàng loạt nghiên cứu đã phơi bày điều này. Thuật toán tuyển dụng của Amazon từng bị phát hiện ưu tiên ứng viên nam, vì nó được huấn luyện trên hồ sơ của những người được tuyển trong 10 năm trước — gần như toàn bộ là nam giới. Hệ thống COMPAS ở Mỹ, dùng để dự đoán nguy cơ tái phạm, bị chỉ trích vì gán mức độ nguy hiểm cao hơn cho người da màu, dù họ có cùng hành vi phạm tội với người da trắng. Một hệ thống chẩn đoán da liễu AI có thể hoạt động tốt với người da trắng, nhưng sai lệch trầm trọng với người da đen, do thiếu hình ảnh minh bạch trong tập dữ liệu.

Nguy hiểm hơn, vì AI thường được coi là “khách quan”, những định kiến này lại được hợp pháp hóa dưới lớp vỏ khoa học. Một quyết định sai do con người gây ra có thể bị phản biện, tranh luận, thậm chí khiển trách. Nhưng khi một thuật toán “ra phán quyết”, nó thường được tiếp nhận như một chân lý không thể bàn cãi — “máy tính nói vậy thì phải đúng”. Như vậy, thay vì giải phóng xã hội khỏi định kiến, AI có thể cố định hóa bất bình đẳng thành một hệ thống kỹ thuật bền vững.

Hộp đen và khoảng trống trách nhiệm: Khi không ai chịu lỗi

Trong các lĩnh vực nhạy cảm, trách nhiệm giải trình (accountability) là nền tảng của niềm tin xã hội. Nếu một bác sĩ chẩn đoán nhầm dẫn đến cái chết của bệnh nhân, có một quy trình rõ ràng để điều tra, xét xử và cải tổ. Nhưng khi một hệ thống AI mắc lỗi — ví dụ: từ chối cứu trợ khẩn cấp cho một cộng đồng nghèo, hoặc xếp hạng nguy cơ cao khiến một người bị giam giữ oan — thì ai là người phải chịu trách nhiệm?

Câu hỏi này hiện vẫn chưa có lời đáp thỏa đáng. Nhà phát triển thuật toán có thể nói: “Chúng tôi chỉ xây mô hình, dữ liệu do khách hàng cung cấp”. Tổ chức sử dụng AI lại đổ lỗi: “Chúng tôi tin vào hệ thống được đánh giá là tiên tiến nhất”. Còn bản thân AI — thì không thể bị truy tố, không thể chất vấn, không thể hỏi “tại sao lại ra quyết định này?”.

Thêm vào đó, nhiều mô hình AI hiện đại, đặc biệt là các mạng neural sâu (deep learning), hoạt động như “hộp đen” — tức là không thể giải thích được quá trình suy luận. Chúng đưa ra kết luận dựa trên hàng triệu phép toán ẩn, mà ngay cả các kỹ sư tạo ra chúng cũng không thể diễn giải tường minh. Điều này vi phạm nguyên tắc cơ bản của công lý: mọi quyết định ảnh hưởng đến con người đều phải có thể được giải thích và kiểm chứng.

Không minh bạch + không trách nhiệm = mất niềm tin hệ thống. Khi người dân không hiểu vì sao mình bị từ chối vay, bị xếp vào diện nguy cơ hay bị bác đơn xin tị nạn, họ không chỉ cảm thấy bị bất công — mà còn cảm thấy bị loại khỏi quy trình ra quyết định. Một xã hội mà quyền lực nằm trong tay những thuật toán không thể giải trình là một xã hội đang trôi dần về phía chuyên chế kỹ thuật số — nơi con người tuân thủ mệnh lệnh của máy móc mà không cần biết lý do.


Hướng tiếp cận cân bằng: AI như công cụ hỗ trợ có kiểm soát

Trong cuộc tranh luận giữa hiệu quả và đạo đức, giữa tốc độ và công bằng, việc lựa chọn giữa toàn quyền AI hay loại bỏ hoàn toàn công nghệ đều dẫn đến cực đoan. Một hướng đi bền vững hơn — và thực tế hơn — là xây dựng một mô hình hợp tác có kiểm soát, nơi AI không phải là kẻ thay thế, mà là người cộng sự được giám sát chặt chẽ. Trong các lĩnh vực nhạy cảm, quyết định cuối cùng không nên nằm trong mã nguồn, mà phải nằm trong tay những cá nhân có trách nhiệm, có lương tâm và có khả năng hiểu bối cảnh. Đây không chỉ là giải pháp kỹ thuật — mà là tuyên bố về giá trị: con người vẫn là trung tâm của các quyết định liên quan đến con người.

Thiết lập ranh giới rõ ràng: Con người giữ "quyền phủ quyết đạo đức"

Một trong những sai lầm lớn nhất khi triển khai AI trong y tế, tư pháp hay an sinh xã hội là xóa nhòa ranh giới thẩm quyền. Khi một thuật toán chẩn đoán ung thư với độ chính xác 95%, có khuynh hướng giao luôn quyền quyết định điều trị cho hệ thống. Nhưng 5% sai sót đó không phải là “dữ liệu ngoại lai” — đó là những con người thật, với gia đình, hy vọng và nỗi đau. Vì vậy, cần thiết lập một nguyên tắc bất di bất dịch: AI được quyền phân tích, gợi ý, cảnh báo — nhưng không bao giờ được quyền ký tên vào số phận ai đó.

Điều này đòi hỏi việc thiết kế hệ thống theo triết lý “human-in-the-loop” (con người trong vòng lặp). Ví dụ, ở bệnh viện Đức, các hệ thống AI hỗ trợ chẩn đoán ung thư phổi chỉ được phép gắn nhãn “cần xem xét bởi bác sĩ chuyên khoa”. Không có báo cáo nào được gửi ra ngoài nếu chưa có chữ ký xác nhận của con người. Tương tự, tại toà án Hà Lan, các thuật toán dự báo nguy cơ tái phạm bị cấm sử dụng trực tiếp trong bản án — chúng chỉ được phép hiện diện trong báo cáo tham khảo nội bộ, và thẩm phán phải ghi rõ lý do nếu dựa vào dữ liệu đó.

Ranh giới này không chỉ ngăn ngừa rủi ro — nó còn bảo vệ phẩm giá nghề nghiệp. Khi bác sĩ, thẩm phán hay chuyên viên tín dụng biết rằng họ mới là người chịu trách nhiệm cuối cùng, họ sẽ chủ động hơn trong việc kiểm chứng, đặt câu hỏi và vận dụng trực giác chuyên môn — thứ mà AI không bao giờ có được.

Minh bạch và giám sát: Xây dựng nền tảng cho niềm tin xã hội

Niềm tin vào hệ thống không đến từ hiệu suất — mà đến từ khả năng giải trình và kiểm chứng. Một quyết định do AI đưa ra sẽ không bao giờ được chấp nhận nếu xã hội không thể hiểu tại sao nó xảy ra. Vì vậy, các hệ thống AI trong lĩnh vực nhạy cảm phải tuân thủ nguyên tắc “explainable by design” — được thiết kế để có thể giải thích ngay từ đầu, chứ không phải thêm vào sau.

Điều này có nghĩa là loại bỏ — hoặc hạn chế nghiêm ngặt — các mô hình “hộp đen” như mạng neural sâu chưa được diễn giải. Thay vào đó, ưu tiên các mô hình có thể cung cấp lý do minh bạch: “Bệnh nhân A bị từ chối vay vì điểm tín dụng dưới ngưỡng 600, lịch sử thanh toán trễ 4 lần trong 12 tháng qua, và thu nhập biến động trên 30% mỗi quý.” Những lý do như vậy không chỉ giúp người bị ảnh hưởng khiếu nại — mà còn giúp nhà quản lý điều chỉnh hệ thống khi phát hiện thiên kiến.

Song song đó, cần thiết lập các cơ chế giám sát độc lập, tương tự như vai trò của kiểm toán viên tài chính. Các tổ chức như European AI Office hay Viện Đạo đức Trí tuệ Nhân tạo Quốc gia nên có quyền tiếp cận mã nguồn, dữ liệu huấn luyện và log quyết định để đánh giá định kỳ. Đặc biệt, mọi hệ thống AI công cộng phải trải qua đánh giá tác động đạo đức (Ethical Impact Assessment) trước khi triển khai — giống như đánh giá môi trường trong xây dựng dự án.

Đầu tư vào con người: Đào tạo thế hệ “người điều phối AI”

Cuối cùng, chìa khóa cho sự hợp tác hiệu quả không nằm ở việc cải tiến AI — mà ở việc nâng cấp con người. Chúng ta không cần thêm nhiều kỹ sư AI — mà cần hàng ngàn bác sĩ, luật sư, nhân viên an sinh hiểu rõ cách AI hoạt động, biết đặt câu hỏi đúng, và đủ tự tin để nói “không” khi hệ thống sai.

Điều này đòi hỏi một cuộc cách mạng trong giáo dục chuyên ngành. Các trường y không chỉ dạy chẩn đoán — mà phải dạy “phê bình thuật toán”: làm sao biết khi nào AI bị lệch? Luật sư tương lai cần học “luật của mã nguồn” — hiểu cách thuật toán ảnh hưởng đến công lý. Ngân hàng cần đội ngũ “giám sát viên đạo đức AI” — những người không code, nhưng biết cách chất vấn logic ra quyết định.

Hơn hết, cần xây dựng văn hóa tổ chức khuyến khích hoài nghi lành mạnh. Một y tá dũng cảm phản đối đề xuất của AI khi thấy nó không phù hợp với hoàn cảnh bệnh nhân nghèo không nên bị coi là “cản trở công nghệ” — mà là người bảo vệ nhân văn cuối cùng. Trong kỷ nguyên AI, lòng can đảm đạo đức có thể là tài sản quý giá nhất.

Sự thật là, chúng ta sẽ không bao giờ có một hệ thống AI hoàn hảo. Cũng như không bao giờ có một con người hoàn toàn khách quan. Nhưng khi kết hợp đúng cách — với ranh giới rõ ràng, minh bạch tuyệt đối và con người được trang bị đầy đủ — chúng ta có thể tạo ra một mô hình ra quyết định vượt trội: vừa chính xác, vừa nhân văn; vừa nhanh chóng, vừa có trách nhiệm. Và đó mới thực sự là trí tuệ — nhân tạo hay không — mà xã hội cần.