Mỹ không cho phép AI tự động sát hại mà không có sự giám sát của con người
Chính phủ Mỹ mong muốn tích cực sử dụng trí tuệ nhân tạo trong lĩnh vực quốc phòng. Tuy nhiên, công ty Anthropic, đơn vị cung cấp AI, phản đối yêu cầu của Bộ Quốc phòng về việc sử dụng AI để điều khiển vũ khí mà không có sự kiểm soát của con người.
Chi Tiết
Bộ Quốc phòng Mỹ đã yêu cầu công ty Anthropic, nhà phát triển của trí tuệ nhân tạo nổi tiếng Claude, cung cấp quyền truy cập không giới hạn vào mô hình AI này, bao gồm cả việc sử dụng nó để kiểm soát vũ khí mà không cần sự giám sát của con người.
Điều này khiến Anthropic lo ngại. Công ty cho biết: "Nội dung của hợp đồng mà chúng tôi nhận được từ Bộ Quốc phòng không tiến bộ trong việc ngăn chặn việc sử dụng Claude cho việc giám sát hàng loạt người Mỹ hoặc trong các vũ khí hoàn toàn tự động." Họ khẳng định: "Chúng tôi không thể đồng ý với các yêu cầu này với lương tâm trong sạch," theo thông tin từ trang Axios.
Quyết định này có thể dẫn đến những hậu quả không mong muốn cho Anthropic, theo như báo Guardian. Bộ Quốc phòng cảnh báo rằng nếu họ không đồng ý với các yêu cầu, không chỉ hợp đồng trị giá 200 triệu đô la sẽ bị hủy bỏ, mà công ty cũng sẽ bị coi là một rủi ro chính thức cho chuỗi cung ứng, điều này có thể gây hậu quả tài chính nghiêm trọng.
Áp lực tương tự cũng đang được Washington áp dụng đối với các công ty khác trong ngành như Google và OpenAI.
Theo báo Wall Street Journal, người Mỹ đã sử dụng Claude trong việc lập kế hoạch cho nhiệm vụ ở Venezuela, nơi họ đã bắt giữ Tổng thống Nicolás Maduro.
Tuy nhiên, việc sử dụng trí tuệ nhân tạo cho mục đích quân sự có thể có những hậu quả rất nghiêm trọng, như một nghiên cứu gần đây tại King's College London đã chỉ ra. Trong nghiên cứu đó, các mô hình ChatGPT, Claude và Gemini được giao nhiệm vụ giải quyết các tranh chấp quốc tế nghiêm trọng, bao gồm cả việc có thể xảy ra xung đột vũ trang. Kết quả đã khiến các chuyên gia bất ngờ.
Trong 95% các trường hợp, trí tuệ nhân tạo đã chọn sử dụng vũ khí hạt nhân. "Nỗi lo về vũ khí hạt nhân dường như không mạnh đối với máy móc như đối với con người," ông Kenneth Payne, người lãnh đạo nghiên cứu cho biết. "Theo góc độ rủi ro hạt nhân, những phát hiện này thật đáng lo ngại," James Johnson từ Đại học Aberdeen nói thêm.
Dù hiện tại các chuyên gia không dự đoán rằng trí tuệ nhân tạo sẽ có quyền truy cập trực tiếp vào vũ khí hạt nhân, nhưng họ coi đây là một tình huống tiềm ẩn nguy hiểm khi các quan chức cấp cao có thể tham khảo ý kiến của AI trong những quyết định quan trọng khi phải chịu áp lực và căng thẳng.
Vũ khí hạt nhân chỉ có ở một số ít quốc gia, hai quốc gia nắm giữ hầu hết các đầu đạn (2/2026):
Mỹ không cho phép AI tự động sát hại mà không có sự giám sát của con người