
Christopher R. Altieri, ngày 17 tháng 2 năm 2026, trong bản tin của Crux, tường trình rằng: Tập đoàn khổng lồ Anthropic đang đối diện với phản ứng dữ dội có thể gây thảm họa từ Bộ trưởng Quốc phòng Hoa Kỳ Pete Hegseth và Bộ Chiến tranh (mới được đổi tên) vì Anthropic từ chối cho phép Lầu Năm Góc sử dụng nền tảng trí tuệ nhân tạo Claude của họ trong thiết kế hoặc triển khai các hệ thống vũ khí tự động dựa trên trí tuệ nhân tạo.
Thường được gọi là "robot sát thủ" và chính thức được gọi là LAWS – Hệ thống Vũ khí Tự động Gây chết người [Lethal Autonomous Weapons Systems] – ý tưởng về các hệ thống như vậy đã gây tranh cãi trong nhiều thế hệ, và Tòa Thánh đã lên tiếng phản đối việc phát triển các hệ thống vũ khí tự động trong hơn một thập niên tại nhiều diễn đàn quốc tế khác nhau.
Tuy nhiên, điều từng là yếu tố xây dựng vũ trụ trong các tác phẩm khoa học viễn tưởng về thế giới loạn lạc và tận thế, giờ đây được cho là đang chi phối chính sách của Lầu Năm Góc.
Sự thay đổi thái độ tiêu cực của Lầu Năm Góc đối với Anthropic – một tập đoàn vì lợi ích công cộng có trụ sở tại San Francisco, chuyên về phát triển và sử dụng trí tuệ nhân tạo một cách an toàn và có đạo đức – là kết quả của việc công ty này từ chối để công nghệ của mình bị sử dụng để do thám công dân Mỹ trên diện rộng hoặc để phát triển các hệ thống vũ khí được thiết kế để hoạt động mà không cần sự can thiệp của con người.
Vì lý do đó, Lầu Năm Góc được cho là “sắp” cắt đứt mọi quan hệ với Anthropic và cũng đang nghiêm túc xem xét việc xếp công ty này vào danh sách “rủi ro chuỗi cung ứng”, điều đó có nghĩa là bất cứ công ty nào muốn kinh doanh với quân đội Mỹ sẽ phải cắt đứt mọi quan hệ hiện có với Anthropic và tránh làm ăn với công ty này.
Những đường nét của một cuộc khủng hoảng
Vào cuối tháng 1, Anthropic đã công bố một “Hiến pháp” mới cho mô hình ngôn ngữ lớn hàng đầu của công ty, Claude, được tổ chức xung quanh các nguyên tắc mà công ty cho rằng được thiết kế để ngăn Claude “làm suy yếu các cơ chế của con người phù hợp để giám sát AI trong giai đoạn phát triển hiện tại”, cùng với các biện pháp bảo vệ và hướng dẫn khác.
Việc công bố các nguyên tắc của Anthropic về phát triển và sử dụng Claude một cách có đạo đức diễn ra khi công ty đang dần thoát khỏi những khó khăn pháp lý. Một vụ kiện tập thể lớn đã khiến Anthropic phải đạt được thỏa thuận dàn xếp trị giá 1.5 tỷ đô la về việc sử dụng trái phép tài liệu có bản quyền để đào tạo các phiên bản trước đó của mô hình.
“Rủi ro chuỗi cung ứng”
Việc Lầu Năm Góc chỉ định “rủi ro chuỗi cung ứng” thường chỉ dành cho các đối thủ nước ngoài bị nghi ngờ gây ra rủi ro an ninh cho Hoa Kỳ, nhưng AI Claude của Anthropic đã được tích hợp vào nhiều hệ thống quân sự của Hoa Kỳ.
“Việc gỡ rối sẽ vô cùng khó khăn,” Axios dẫn lời một quan chức cấp cao của Lầu Năm Góc nói vào ngày 16 tháng 2, “và chúng tôi sẽ đảm bảo [Anthropic] phải trả giá vì đã ép buộc chúng tôi như thế này.”
Người phát ngôn chính của Lầu Năm Góc, Sean Parnell, đã xác nhận với Crux rằng mối quan hệ của Bộ với Anthropic đang được xem xét.
“Mối quan hệ của Bộ Chiến tranh với Anthropic đang được xem xét,” Parnell nói với Crux.
“Quốc gia chúng ta yêu cầu các đối tác phải sẵn sàng giúp đỡ các chiến binh của chúng ta giành chiến thắng trong bất cứ cuộc chiến nào,” ông nói trong phản hồi các câu hỏi qua email. “Cuối cùng, điều này là vì binh lính của chúng ta và sự an toàn của người dân Mỹ,” Parnell cũng nói thế.
Điều đó phù hợp với những tuyên bố mà Bộ trưởng Hegseth đã đưa ra hồi đầu năm nay khi ông công bố Chiến lược Tăng tốc Trí tuệ Nhân tạo của Lầu Năm Góc.
Hegseth nói vào ngày 12 tháng 1: “Chúng tôi sẽ thúc đẩy thử nghiệm, loại bỏ các rào cản quan liêu, tập trung đầu tư và chứng minh phương pháp thực thi cần thiết để đảm bảo chúng tôi dẫn đầu trong lĩnh vực trí tuệ nhân tạo quân sự”.
Trong một bản ghi nhớ ngày 9 tháng 1 nêu chi tiết chính sách mới – dưới tiêu đề “Làm rõ ‘Trí tuệ nhân tạo có trách nhiệm’ tại Bộ Quốc phòng – Loại bỏ chủ nghĩa lý tưởng không tưởng, thay vào đó là chủ nghĩa hiện thực cứng rắn” – Hegseth viết: “[Chúng ta] không được sử dụng các mô hình AI kết hợp ‘điều chỉnh’ về mặt ý thức hệ làm cản trở khả năng cung cấp các phản hồi khách quan, trung thực cho các yêu cầu của người dùng.”
Đó là ám chỉ đến “Sự đa dạng, công bằng và hòa nhập cũng như hệ tư tưởng xã hội,” những thứ “không có chỗ đứng trong Bộ Quốc phòng.”
Hegseth viết, “Bộ cũng phải sử dụng các mô hình không bị ràng buộc bởi các chính sách sử dụng có thể hạn chế các ứng dụng quân sự hợp pháp.”
Hegseth chỉ đạo Văn phòng Trưởng bộ phận Kỹ thuật số và Trí tuệ Nhân tạo của Bộ “thiết lập các tiêu chuẩn về tính khách quan của mô hình như một tiêu chí mua sắm chính trong vòng 90 ngày”, và chỉ đạo Bộ “đưa ngôn ngữ tiêu chuẩn ‘bất cứ mục đích sử dụng hợp pháp nào’ vào bất cứ hợp đồng nào của Bộ Vũ khí mà qua đó các dịch vụ AI được mua sắm trong vòng 180 ngày”.
Tuy nhiên, chính xác thì thế nào là sử dụng hợp pháp vẫn là một câu hỏi chưa có lời giải đáp đối với các nhà thầu, các nhà lập pháp, các sĩ quan quân đội, và thậm chí cả các quan chức Bộ Quốc phòng/Bộ Chiến tranh.
Việc gián đoạn kỹ nghệ
Dù lý do của động thái này là gì, các nhà quan sát cho rằng việc đưa Anthropic vào danh sách đen có thể gây ra sự gián đoạn nghiêm trọng trên toàn ngành kỹ nghệ AI, đặc biệt là đối với Amazon và OpenAI, cả hai đều đã đầu tư hàng tỷ đô la phụ thuộc rất nhiều vào hệ thống đám mây của Anthropic.
Nếu Lầu Năm Góc đưa Anthropic vào danh sách đen, bất cứ công ty nào hiện đang làm ăn với tổ chức này có thể phải đối diện với một lựa chọn khó khăn: Cắt đứt quan hệ với Anthropic và làm ăn với quân đội Hoa Kỳ, hoặc tiếp tục làm ăn với Anthropic và từ bỏ việc kinh doanh với Lầu Năm Góc.
Bản ghi nhớ tháng 1 của Hegseth cho biết bộ sẽ “đo lường thành công thông qua thử nghiệm thực địa liên tục: đưa khả năng AI vào tay người vận hành, thu thập phản hồi trong vòng vài ngày chứ không phải vài năm, và cập nhật nhanh hơn tốc độ thích nghi của kẻ thù.”
Tuy nhiên, một mối lo ngại lớn về mặt pháp lý và đạo đức là các hệ thống vũ khí tự động sẽ hoạt động – theo thiết kế – mà không cần sự chỉ đạo hoặc kiểm soát của con người.
“Cùng với sự đổi mới năng lực,” Hegseth tuyên bố trong bản ghi nhớ của mình, “chúng ta phải tích hợp đầy đủ hơn nữa AI và Tự động hóa vào kế hoạch quân sự; phát triển chiến thuật, kỹ thuật và quy trình (TTP); và các quy trình thử nghiệm.”
Chính sách của Hoa Kỳ xung đột với Tòa Thánh
Điều này dường như đặt chính sách quốc phòng chính thức của Hoa Kỳ do Bộ trưởng nêu ra vào thế đối đầu với Tòa Thánh. Các câu hỏi từ Crux gửi đến văn phòng báo chí của Tòa Thánh đã không được hồi đáp tại thời điểm bài báo được xuất bản, nhưng một tuyên bố vào tháng 8 năm 2024 từ Quan sát viên thường trực tại Liên Hợp Quốc và các văn phòng quốc tế khác ở Geneva tại một cuộc họp cấp cao đã nhắc lại mong muốn của Tòa Thánh về một thỏa thuận ràng buộc pháp lý để điều chỉnh nghiên cứu về việc vũ khí hóa trí tuệ nhân tạo và lệnh cấm phát triển và sử dụng các loại vũ khí đó.
Vào tháng 1 năm nay, Đức Giáo Hoàng Leo XIV đã nhấn mạnh mối nguy hiểm của các hệ thống vũ khí trí tuệ nhân tạo trong bài phát biểu “tình hình thế giới” đầu tiên của ngài trước các nhà ngoại giao.
Đức Leo nói: “Có nguy cơ quay trở lại cuộc chạy đua sản xuất các loại vũ khí mới ngày càng tinh vi hơn, cũng bằng trí tuệ nhân tạo. Trí tuệ nhân tạo là một công cụ đòi hỏi sự quản lý phù hợp và có đạo đức, cùng với các khuôn khổ pháp lý tập trung vào việc bảo vệ tự do và trách nhiệm của con người”.
Đây không phải là mối quan tâm nhất thời hay thoáng qua đối với vị giáo hoàng mới, người đã lấy tên hiệu là Leo, như một sự tri ân đối với Leo I và Leo XIII, hai vị tiền nhiệm của ngài, những người đã trị vì trong thời kỳ biến động to lớn về xã hội, văn minh và tâm linh.
Đức Leo I – Leo Cả– trị vì trong những ngày cuối cùng của đế quốc La Mã ở phương Tây và nổi tiếng vì đã đánh bại Attila người Hun. Đức Leo XIII đã ban cho Giáo hội thông điệp Rerum novarum, văn kiện nền tảng của học thuyết xã hội của Giáo hội trong thời hiện đại.
Thông điệp quan trọng năm 1891 “đã đề cập đến vấn đề xã hội trong bối cảnh cuộc cách mạng kỹ nghệ vĩ đại đầu tiên”, như Đức Leo XIV đã giải thích trong bài phát biểu trước hội đồng Hồng Y tập hợp tại Hội trường Thượng hội đồng mới của Vatican vào ngày 10 tháng 5, chỉ hai ngày sau khi ngài được bầu.
Đức Giáo Hoàng Leo nói trong bài phát biểu ngày 10 tháng 5: “Trong thời đại của chúng ta, Giáo hội trao tặng cho mọi người kho tàng giáo huấn xã hội của mình để đáp lại một cuộc cách mạng kỹ nghệ khác và những phát triển trong lĩnh vực trí tuệ nhân tạo, những điều đặt ra những thách thức mới cho việc bảo vệ phẩm giá con người, công lý và quyền lao động.”
Những mối quan tâm trong các triều đại giáo hoàng gần đây
Tòa Thánh Vatican đã bắt đầu giải quyết những thách thức này từ vài năm trước và đã tài trợ một loạt hội nghị và Lời kêu gọi về đạo đức trí tuệ nhân tạo trong triều đại của Đức Giáo Hoàng Phanxicô.
Ban đầu được ký kết vào tháng 2 năm 2020 bởi Học viện Giáo hoàng về Sự sống, Microsoft, IBM, Tổ chức Lương thực và Nông nghiệp của Liên Hợp Quốc và Bộ Đổi mới của Ý, Lời kêu gọi Rome về đạo đức trí tuệ nhân tạo là một sáng kiến đang diễn ra nhằm thúc đẩy một cách tiếp cận đạo đức đối với trí tuệ nhân tạo. Lời kêu gọi Rome có sự tham gia của các nhà lãnh đạo từ lĩnh vực kỹ thuật và kỹ nghệ, chính phủ, giới học thuật và xã hội dân sự.
Trong thông điệp gửi đến những người tham dự Hội nghị Rome thường niên lần thứ hai về Trí tuệ Nhân tạo, diễn ra vào ngày 19-20 tháng 6 năm ngoái, Đức Giáo Hoàng Leo nói: “[Giáo hội] mong muốn đóng góp vào một cuộc thảo luận ôn hòa và có hiểu biết” về những câu hỏi cấp bách xung quanh việc phát triển và sử dụng AI, “bằng cách nhấn mạnh trên hết sự cần thiết phải cân nhắc những hệ quả của AI dưới ánh sáng của ‘sự phát triển toàn diện của con người và xã hội’”.
Ngài nói: “Điều này bao gồm việc tính đến hạnh phúc của con người không chỉ về vật chất, mà còn về trí tuệ và tinh thần, nó có nghĩa là bảo vệ phẩm giá bất khả xâm phạm của mỗi con người và tôn trọng sự giàu có về văn hóa và tinh thần cũng như sự đa dạng của các dân tộc trên thế giới”.
Đức Giáo Hoàng Leo nói với những người tham dự, bao gồm cả một phái đoàn của tổ chức Anthropic, “Cuối cùng, lợi ích hoặc rủi ro của AI phải được đánh giá chính xác theo tiêu chí đạo đức cao hơn này”.