Bên cạnh những lo ngại về thông tin sai lệch, công việc của con người bị thay thế mà do AI gây ra, một lĩnh vực bị bỏ qua chính là năng lượng điện để đào tạo hệ thống này. Trong tương lai không xa, công nghệ này có thể tiêu thụ lượng điện tương đương với cả một quốc gia.
Alex de Vries, một nhà nghiên cứu tại Đại học Vrije Amsterdam đã theo dõi tác động môi trường của các hệ thống AI cho biết, trong tương lai gần công nghệ này có thể tiêu thụ lượng điện tương đương với cả một quốc gia.
Nhà nghiên cứu giải thích rằng giai đoạn đào tạo cho các mô hình ngôn ngữ lớn thường được coi là tiêu tốn nhiều năng lượng nhất. Sau khi đào tạo, các mô hình được triển khai vào môi trường sản xuất và bắt đầu giai đoạn suy luận.
Trong trường hợp ChatGPT, điều này liên quan đến việc tạo phản hồi trực tiếp các câu hỏi của người dùng đưa ra. Rất ít nghiên cứu đã đi vào giai đoạn suy luận, nhưng De Vries tin rằng có những dấu hiệu cho thấy giai đoạn này có thể đóng góp đáng kể vào mô hình AI.
Theo công ty nghiên cứu SemiAnalysis, OpenAI cần 3.617 máy chủ Nvidia HGX A100, với tổng số 28.936 GPU, để hỗ trợ ChatGPT, tức là nhu cầu năng lượng là 564 MWh mỗi ngày. Để so sánh, ước tính khoảng 1.287 MWh đã được sử dụng trong giai đoạn đào tạo của GPT-3, do đó nhu cầu năng lượng của giai đoạn suy luận cao hơn đáng kể.
Google, báo cáo rằng 60% mức tiêu thụ năng lượng liên quan đến AI từ năm 2019 đến năm 2021 bắt nguồn từ suy luận, đang tích hợp các tính năng AI vào công cụ tìm kiếm của mình. Trở lại vào tháng 2, Chủ tịch Alphabet John Hennessy cho biết một trao đổi người dùng với dịch vụ tìm kiếm do AI cung cấp "có thể tốn kém gấp 10 lần so với tìm kiếm từ khóa cơ bản".
SemiAnalysis ước tính rằng việc triển khai AI tương tự ChatGPT vào mọi tìm kiếm của Google sẽ yêu cầu 512.821 máy chủ A100 HGX, tổng cộng 4.102.568 GPU. Với nhu cầu điện năng là 6,5 kW mỗi máy chủ, điều này sẽ dẫn đến mức tiêu thụ điện hàng ngày là 80 GWh và mức tiêu thụ hàng năm là 29,2 TWh, tương đương lượng điện mà Ireland sử dụng một năm.
Kịch bản trên sẽ không còn xa, nhất là vì Nvidia không có đủ năng lực sản xuất để cung cấp hơn nửa triệu máy chủ HGX và Google sẽ phải tốn 100 tỷ USD để mua chúng.
"Các nhà phát triển không chỉ nên tập trung vào việc tối ưu hóa AI mà còn phải xem xét nghiêm túc sự cần thiết của việc sử dụng AI ngay từ đầu, vì không chắc tất cả các ứng dụng sẽ được hưởng lợi từ AI hoặc lợi ích sẽ luôn lớn hơn chi phí." ", De Vries nói
Nhiều thông tin cho rằng công ty dẫn đầu thị trường Nvidia dự kiến sẽ cung cấp 100.000 máy chủ AI của mình vào năm 2023. Nếu hoạt động hết công suất, các máy chủ này sẽ có tổng nhu cầu điện là 650 – 1.020 MW, tiêu thụ lên tới 5,7 – 8,9 TWh điện hàng năm. Đó là một con số gần như không đáng kể so với mức tiêu thụ hàng năm của các trung tâm dữ liệu (205 TWh). Tuy nhiên đến năm 2027, Nvidia có thể cho ra 1,5 triệu đơn vị máy chủ AI, đẩy mức tiêu thụ năng lượng hàng năm của họ lên tới 85,4 – 134,0 TWh. Con số này tương đương với một quốc gia như Argentina, Hà Lan hoặc Thụy Điển.