Trong khi các công nghệ quân sự AI tiếp tục phát triển nhanh chóng, câu hỏi lớn nhất vẫn còn đó: Loài người có thực sự sẵn sàng để máy móc nắm quyền quyết định sinh tử?
Trong bối cảnh AI ngày càng tham gia sâu vào lĩnh vực quân sự, nhà sáng lập Oculus và Anduril – Palmer Luckey – tiếp tục gây tranh cãi khi cho rằng trí tuệ nhân tạo nên được trao quyền quyết định sống chết trên chiến trường. Quan điểm này ngay lập tức làm dấy lên nhiều lo ngại về đạo đức và mức độ an toàn trong việc tự động hóa vũ khí.
Palmer Luckey: “Không có lý do đạo đức nào để dùng công nghệ kém hơn trong chiến tranh”
Trong buổi trả lời phỏng vấn trên Fox News Sunday, Palmer Luckey khẳng định rằng các quyết định sống còn trong chiến tranh là lĩnh vực “quá quan trọng” để không sử dụng công nghệ tối tân nhất. Ông nói: “Dù đó là AI, lượng tử hay bất kỳ công nghệ nào khác, nếu bạn đang nói về việc giết người, bạn phải giảm thiểu thương vong ngoài ý muốn và đảm bảo độ chính xác cao nhất.”
Luckey cho rằng việc từ chối để AI đưa ra quyết định sinh tử không phải là “vị thế đạo đức”, mà là đang cố tình dùng công nghệ kém hiệu quả hơn.
![AI trong chien tranh: Palmer Luckey gay tranh cai khi ung ho de may moc quyet dinh song – chet AI trong chiến tranh: Palmer Luckey gây tranh cãi khi ủng hộ để máy móc quyết định sống chết]()
Luckey Palmer cho rằng AI có thể quyết định sinh tử trong chiến tranh
Anduril – công ty quốc phòng AI của Luckey đứng sau quan điểm gây tranh cãi
Không khó hiểu vì sao Palmer Luckey có lập trường mạnh mẽ như vậy. Anduril – công ty do ông sáng lập – đang phát triển hàng loạt thiết bị quân sự chạy bằng AI như drone, cảm biến, phương tiện tự hành và hệ thống chỉ huy Lattice.
Năm 2024, Anduril còn công bố hợp tác chiến lược với OpenAI để cùng phát triển các giải pháp AI phục vụ nhiệm vụ an ninh quốc gia, trước mắt tập trung vào công nghệ chống drone và các mối đe dọa trên không.
Nhiều công ty công nghệ nới lỏng cam kết “không phát triển AI cho quân sự”
Bất chấp sự phản đối từ chuyên gia và nhân viên, nhiều tập đoàn lớn đã thay đổi quan điểm. Google đầu năm nay âm thầm bỏ cam kết “tránh phát triển AI cho mục đích gây hại”, bao gồm cả vũ khí. Khi các dự án máy bay chiến đấu AI và drone tự động ngày càng phổ biến, cuộc tranh luận trở nên nóng hơn với câu hỏi: liệu AI có nên tham gia vào kiểm soát vũ khí hạt nhân?
Mỹ từng tuyên bố kiểm soát hạt nhân sẽ luôn nằm trong tay con người, nhưng chỉ vài tháng sau, Lầu Năm Góc nói rằng AI có thể “hỗ trợ” hệ thống chỉ huy và liên lạc hạt nhân.