Mức tiêu thụ điện năng cho AI đang dần tăng cao trong những năm gần đây và điều này càng làm tăng mối lo ngại về tài nguyên thiên nhiên.
Số liệu mới từ công ty quản lý năng lượng Schneider Electric của Pháp khẳng định trí tuệ nhân tạo (AI) hiện đang tiêu thụ khoảng 4,3GW điện năng, gần bằng một quốc gia nhỏ trên thế giới.
Khi mà công nghệ trí tuệ nhân tạo trở nên tiên tiến và phổ biến, điều đó cũng đồng nghĩa việc sử dụng năng lượng của công nghệ này cũng sẽ tăng theo. Đến năm 2028, Schneider Electric ước tính AI sẽ chiếm khoảng 13,5-20GW, chiếm mức tăng trưởng hàng năm là 26-36%.
Hiện tại, trí tuệ nhân tạo chỉ chiếm 8% mức tiêu thụ năng lượng của một trung tâm dữ liệu thông thường, với tổng công suất là 54GW. Đến năm 2028, công ty dự kiến việc sử dụng trung tâm dữ liệu sẽ tăng lên 90GW, và trí tuệ nhân tạo chiếm khoảng 15-20% trong số đó.
Công ty cũng phân chia tỷ lệ khoảng 20% lượng điện năng cho việc đào tạo AI và 80% vận hành AI. Báo cáo cũng dự kiến lượng điện năng để vận hành AI sẽ tăng cao trong những năm tới.
Ngoài ra, số liệu cũng cũng đề cập đến việc tiêu thụ điện cho quá trình tản nhiệt. Nhiệt độ quá cao có thể khiến máy chủ AI mau hỏng phần cứng, nghiêm trọng hơn là rủi ro về cháy nổ. Ngoài việc sử dụng điện để làm mát máy chủ, các nhà phát triển còn sử dụng một lượng nước khổng lồ để hỗ trợ trong phần tản nhiệt.
Các trung tâm dữ liệu từ lâu đã bị chỉ trích vì sử dụng tài nguyên thiên nhiên, trong số đó là việc định tuyến lại hoặc sửa đổi dòng nước. Điều này là do việc làm mát bằng không khí không đủ mạnh và gây nguy hiểm cho máy chủ.
Công ty cũng đưa ra lời khuyên cho các nhà khai thác trung tâm dữ liệu đang tìm cách tận dụng phần cứng AI mới nhất: việc chuyển từ phân phối 120/208V thông thường sang 240/415V sẽ cho phép họ đáp ứng được mật độ năng lượng cao của khối lượng công việc AI.
Rõ ràng, công việc nâng cấp cơ sở hạ tầng phải đi đôi với điều chỉnh quỹ đạo hiện tại nhằm hạn chế việc sử dụng năng lượng và làm cho khối lượng công việc điện toán đám mây và AI hiệu quả hơn nữa.