Theo một báo cáo tài chính quý II năm 2023 của Nvidia, công ty đã ghi nhận doanh thu từ việc bán chip được sử dụng trong các trung tâm dữ liệu để huấn luyện AI tăng gấp đôi. Điều này cho thấy nhu cầu về các mô hình AI như ChatGPT có thể vẫn chưa đạt đỉnh.
Tuy nhiên, điều đáng lo ngại là sự gia tăng của AI cũng kéo theo việc tiêu tốn năng lượng từ các trung tâm dữ liệu. Ví dụ, chip mới nhất của Nvidia, GH200 Grace Hopper Superchip, có kích thước chỉ bằng một tấm bưu thiếp nhưng lại cần đến 1.000 watt điện, tương đương với một máy sưởi di động. Trong khi đó, các cỗ máy huấn luyện AI thường kết nối hàng loạt chip như vậy với nhau.
HuggingFace đã công bố một nghiên cứu tháng này cho thấy một cụm máy tính với 384 bộ xử lý đồ họa Nvidia A100 cần hơn 118 ngày để phân tích một mô hình AI với 176 tỷ tham số từ 1,6 TB dữ liệu. Khi vận hành, hệ thống này sẽ tạo ra lượng lớn khí CO2, từ 24,7 đến 50,5 tấn trong suốt quá trình hoạt động.
Điều đáng chú ý là giai đoạn vận hành hệ thống AI, khi người dùng truy vấn mô hình để nhận kết quả, cũng gây ra tiêu thụ năng lượng lớn. Nghiên cứu của Amazon cho thấy 90% chi phí liên quan đến vận hành hệ thống trí tuệ nhân tạo nằm ở giai đoạn này. Việc huấn luyện một hệ thống AI có thể tạo ra lượng khí CO2 gấp 10 lần so với giai đoạn đầu, tương đương khoảng 500 tấn, tương đương với việc lái ôtô một triệu dặm hoặc 500 chuyến bay từ New York đến Frankfurt.
Các nghiên cứu cũng cho thấy hoạt động khai thác Bitcoin và huấn luyện AI đều cần lượng năng lượng lớn. Mặc dù hoạt động khai thác Bitcoin đã dần chuyển sang sử dụng năng lượng tái tạo, nhưng hầu hết hệ thống AI vẫn sử dụng năng lượng từ nguồn hóa thạch. Trong tương lai, sự gia tăng của công nghệ trí tuệ nhân tạo có thể gây ra mức tiêu thụ năng lượng cao hơn, ảnh hưởng đến môi trường.
Mặc dù việc tiêu tốn năng lượng của AI không tiêu cực như tiền số, cần có sự cân nhắc cẩn thận về tác động của nó đối với môi trường.