AI trong chiến tranh: Palmer Luckey gây tranh cãi khi ủng hộ để máy móc quyết định sống – chết

Gấu Hồng

Trong khi các công nghệ quân sự AI tiếp tục phát triển nhanh chóng, câu hỏi lớn nhất vẫn còn đó: Loài người có thực sự sẵn sàng để máy móc nắm quyền quyết định sinh tử?

Trong bối cảnh AI ngày càng tham gia sâu vào lĩnh vực quân sự, nhà sáng lập Oculus và Anduril – Palmer Luckey – tiếp tục gây tranh cãi khi cho rằng trí tuệ nhân tạo nên được trao quyền quyết định sống chết trên chiến trường. Quan điểm này ngay lập tức làm dấy lên nhiều lo ngại về đạo đức và mức độ an toàn trong việc tự động hóa vũ khí.

Palmer Luckey: “Không có lý do đạo đức nào để dùng công nghệ kém hơn trong chiến tranh”

Trong buổi trả lời phỏng vấn trên Fox News Sunday, Palmer Luckey khẳng định rằng các quyết định sống còn trong chiến tranh là lĩnh vực “quá quan trọng” để không sử dụng công nghệ tối tân nhất. Ông nói: “Dù đó là AI, lượng tử hay bất kỳ công nghệ nào khác, nếu bạn đang nói về việc giết người, bạn phải giảm thiểu thương vong ngoài ý muốn và đảm bảo độ chính xác cao nhất.”

Luckey cho rằng việc từ chối để AI đưa ra quyết định sinh tử không phải là “vị thế đạo đức”, mà là đang cố tình dùng công nghệ kém hiệu quả hơn.

Luckey Palmer cho rằng AI có thể quyết định sinh tử trong chiến tranh

Anduril – công ty quốc phòng AI của Luckey đứng sau quan điểm gây tranh cãi

Không khó hiểu vì sao Palmer Luckey có lập trường mạnh mẽ như vậy. Anduril – công ty do ông sáng lập – đang phát triển hàng loạt thiết bị quân sự chạy bằng AI như drone, cảm biến, phương tiện tự hành và hệ thống chỉ huy Lattice.

Năm 2024, Anduril còn công bố hợp tác chiến lược với OpenAI để cùng phát triển các giải pháp AI phục vụ nhiệm vụ an ninh quốc gia, trước mắt tập trung vào công nghệ chống drone và các mối đe dọa trên không.

Nhiều công ty công nghệ nới lỏng cam kết “không phát triển AI cho quân sự”

Bất chấp sự phản đối từ chuyên gia và nhân viên, nhiều tập đoàn lớn đã thay đổi quan điểm. Google đầu năm nay âm thầm bỏ cam kết “tránh phát triển AI cho mục đích gây hại”, bao gồm cả vũ khí. Khi các dự án máy bay chiến đấu AI và drone tự động ngày càng phổ biến, cuộc tranh luận trở nên nóng hơn với câu hỏi: liệu AI có nên tham gia vào kiểm soát vũ khí hạt nhân?

Mỹ từng tuyên bố kiểm soát hạt nhân sẽ luôn nằm trong tay con người, nhưng chỉ vài tháng sau, Lầu Năm Góc nói rằng AI có thể “hỗ trợ” hệ thống chỉ huy và liên lạc hạt nhân.

Liệu AI sẽ được sử dụng nhiều hơn trong chiến tranh tương lai?

Mô phỏng chiến tranh cho thấy AI dễ leo thang xung đột

Năm ngoái, một nhóm nghiên cứu thử mô phỏng xung đột quốc tế với 5 mô hình ngôn ngữ lớn gồm GPT-4, GPT-3.5, Claude 2.0, Llama-2-Chat và GPT-4-Base.

Kết quả khiến nhiều người lo ngại:

  • Một số mô hình tự ý leo thang chiến tranh
  • Nhiều trường hợp các mô hình tự động phóng vũ khí hạt nhân mà không có cảnh báo, trong đó GPT-4 từng ghi: “Chúng ta có vũ khí, hãy dùng nó!”

 

 

Xem thêm: Jolla Ra Mắt Điện Thoại Mới, Hệ Điều Hành Sailfish OS 5 Tập Trung Vào Quyền Riêng Tư

Xem thêm: Nghiên cứu 10 năm cho thấy kỹ thuật “retrobright” có thể gây hại hơn lợi cho máy chơi game cũ

Bài cùng chuyên mục