"Dấu chân" của ChatGPT

BÌNH MINH 15/04/2025 09:49 GMT+7

TTCT - Nhìn AI biết tuốt, nói chuyện khôn khéo hay tạo ảnh phong cách Ghibli độc đáo chỉ từ một dòng lệnh khiến người người thích thú, song cái giá môi trường phải trả là rất lớn.

c - Ảnh 1.

Sự trỗi dậy của AI tạo sinh đã làm gia tăng nhanh chóng tốc độ xây dựng các trung tâm dữ liệu - nơi chứa cơ sở hạ tầng điện toán như máy chủ, ổ lưu trữ dữ liệu và thiết bị mạng. Theo tạp chí MIT News, sức mạnh điện toán cần thiết để huấn luyện các mô hình AI tạo sinh có thể tiêu thụ một lượng điện khổng lồ, dẫn đến phát thải khí CO₂ tăng cao và gây áp lực lên lưới điện. 

Bên cạnh đó, một lượng nước lớn cũng cần để làm mát phần cứng dùng trong việc huấn luyện, triển khai và tinh chỉnh các mô hình AI tạo sinh, gây căng thẳng về nguồn nước đô thị và xáo trộn hệ sinh thái địa phương.

Sau mỗi dòng lệnh "tạo ảnh Ghibli"

Trên X ngày 27-3, giám đốc điều hành OpenAI, Sam Altman, cho biết các bộ xử lý đồ họa (GPU) tại trung tâm dữ liệu giúp vận hành ChatGPT đã "tan chảy" vì quá tải, khi người dùng đổ xô tạo ảnh theo phong cách Ghibli. Điều này là có cơ sở. Dữ liệu từ Similarweb cho thấy trào lưu này đã khiến số người dùng hoạt động trung bình hằng tuần của ChatGPT vượt mốc 150 triệu lần đầu tiên trong năm nay.

Theo Cơ quan Năng lượng quốc tế (IEA), câu lệnh với ChatGPT tiêu thụ lượng điện gấp 10 lần một lượt tìm kiếm Google - khoảng 2,9 Wh so với 0,3 Wh, nghĩa là chỉ một bức ảnh do AI tạo ra đã có thể tiêu tốn lượng điện tương đương với việc sạc đầy một chiếc smartphone, dù mức tiêu thụ này còn tùy thuộc vào công cụ AI và sức mạnh tính toán mà nó yêu cầu.

Việc tạo ra văn bản tiêu tốn ít năng lượng hơn: một email dài 100 từ được tạo bằng chatbot AI sử dụng mô hình GPT-4 của ChatGPT tiêu thụ khoảng 0,14 kWh - đủ để thắp sáng một bóng đèn LED trong 14 giờ, và "ngốn" khoảng 519ml nước - hơn một chai nước suối thông thường một chút, theo nghiên cứu của Đại học California, Riverside.

Vấn đề là người dùng thông thường không suy nghĩ quá nhiều về điều đó, theo Noman Bashir, nghiên cứu viên về điện toán và tác động khí hậu tại Liên minh Bền vững và Khí hậu MIT (MCSC). "Giao diện thân thiện của AI tạo sinh và sự thiếu thông tin về tác động môi trường từ hành vi sử dụng khiến người dùng không có nhiều động lực để giảm bớt việc dùng công cụ này" - ông nói với MIT News.

Dấu chân nước và dấu chân carbon

"Trong khi chúng ta đang sử dụng AI để giải quyết một số thách thức lớn nhất của thế giới - từ mô hình khí hậu đến những đột phá trong y tế - chúng ta cũng đồng thời góp phần vào một cuộc khủng hoảng môi trường theo một cách khác" - Chris Gladwin, nhà sáng lập kiêm CEO của start-up công nghệ Ocient, viết trên tạp chí Fortune tháng 8-2024.

Theo Advanced Science News, việc xác định chính xác tác động môi trường thực sự của AI, từ tiêu thụ nước tới phát thải carbon, vẫn là một thách thức do thiếu phương pháp đo lường tiêu chuẩn. Tuy nhiên, điểm chung của các nghiên cứu tính tới thời điểm này là các con số đều đáng lo ngại.

Một nghiên cứu năm 2021 của Đại học Cornell cho biết việc huấn luyện GPT-3 tiêu tốn tới 1.287 MWh điện và thải ra 550 tấn CO₂, tương đương với 33 chuyến bay khứ hồi giữa Úc và Anh.

Một nhóm nghiên cứu từ Đại học Chiết Giang (Trung Quốc) đã tính toán lượng khí thải carbon từ 79 hệ thống AI nổi bật, bao gồm Gemini Ultra và GPT-4, trong giai đoạn 2020 - 2024. Kết quả cho thấy chỉ riêng 20 hệ thống AI hàng đầu đã tiêu thụ đủ năng lượng để sánh ngang với một quốc gia nhỏ, chẳng hạn như Iceland hoặc Triều Tiên. Thậm chí, vào năm 2022, lượng khí thải carbon từ các hệ thống AI này đã vượt qua lượng khí thải của 137 quốc gia riêng lẻ. 

Nhóm nghiên cứu cũng dự đoán rằng dấu chân carbon tổng cộng có thể đạt tới 102,6 triệu tấn CO₂ mỗi năm, tương đương với lượng khí thải của 22 triệu người. Trưởng nhóm nghiên cứu Meng Zhang cho rằng những ước tính này có thể chỉ là phần nổi của tảng băng chìm nếu xét đến tốc độ mà AI đang phát triển.

c - Ảnh 2.

Nghịch lý: dùng AI cho mục đích môi trường cũng chính là đang hại môi trường. Ảnh: Smart Water Magazine

Ngoài dấu chân carbon, gần đây khái niệm dấu chân nước (water footprint) cũng bắt đầu được chú ý. Theo tổ chức Water Footprint Network, dấu chân nước là lượng nước được sử dụng để tạo ra mỗi hàng hóa và dịch vụ mà chúng ta tiêu dùng. 

Theo nghiên cứu của Đại học California, Riverside và Đại học Texas, Arlington, chỉ riêng việc huấn luyện một mô hình ngôn ngữ lớn như GPT-3 có thể dẫn đến việc bốc hơi tới 5,4 triệu lít nước. Dấu chân nước sẽ tiếp tục tăng theo mỗi câu lệnh với AI (nước bốc hơi gián tiếp thông qua hoạt động của các trung tâm dữ liệu khổng lồ vận hành không ngừng nghỉ).

Nghiên cứu cảnh báo rằng nếu không có sự thay đổi đáng kể, lượng nước tiêu thụ trên toàn cầu do AI gây ra sẽ đạt từ 4,2 - 6,6 tỉ mét khối vào năm 2027, tương đương lượng nước mà 4-6 quốc gia như Đan Mạch tiêu thụ mỗi năm, hoặc bằng một nửa lượng nước tiêu thụ hằng năm của Vương quốc Anh. 

Viễn cảnh này càng đáng lo trong bối cảnh khủng hoảng nước toàn cầu, với nhiều khu vực phải hứng chịu hạn hán kéo dài và hệ thống hạ tầng cấp nước đang xuống cấp nhanh chóng.

Một trong những phát hiện đáng chú ý nhất của nghiên cứu là sự thiếu minh bạch về những tác động này. Không như khí thải carbon, lượng nước sử dụng không được công bố, dù chỉ là con số nhỏ. Việc thiếu thông tin khiến những nỗ lực xây dựng các giải pháp bền vững gặp nhiều hạn chế.

Nghiên cứu nhấn mạnh cần có những thay đổi căn bản trong cách huấn luyện và triển khai mô hình, sao cho yếu tố tiết kiệm nước trở thành một tiêu chí then chốt. Ví dụ, huấn luyện mô hình tại nơi khí hậu ôn hòa hơn và hiệu quả sử dụng nước cao hơn có thể giảm đáng kể lượng tiêu thụ. Việc huấn luyện cũng có thể được lên lịch vào những thời điểm mát hơn trong ngày, khi nhu cầu nước để làm mát máy chủ thấp hơn.

"AI xanh"

Vậy làm sao để tận hưởng những lợi ích mà AI mang lại mà không làm trầm trọng thêm khủng hoảng khí hậu? Câu trả lời, theo một bài viết trên Carbon Credit tháng 12-2024, chính là: AI xanh (Green AI). Cách làm này hướng tới tích hợp yếu tố bền vững trong mọi giai đoạn của vòng đời AI, từ nghiên cứu và phát triển cho đến triển khai và bảo trì.

Nguyên tắc cốt lõi của AI xanh là cân bằng giữa lợi ích mà AI mang lại với những tác động môi trường của nó, thông qua các giải pháp như thiết kế các thuật toán và mô hình tiêu tốn ít năng lượng hơn (tinh gọn quy mô nhưng vẫn hiệu quả); tối ưu hóa phần cứng (GPU có hiệu suất cao có thể giúp cắt giảm đáng kể lượng điện tiêu thụ của AI); hay "bền vững hóa" trung tâm dữ liệu (chuyển sang năng lượng tái tạo).

Các bên liên quan đã hành động, và cũng đã có những tín hiệu lạc quan bước đầu. Vai trò của AI trong thúc đẩy bền vững môi trường là một trong các chủ đề của hội nghị COP29 ở Baku (Azerbaijan) tháng 11-2024.

Tại một phiên thảo luận, Josh Parker, giám đốc pháp lý cấp cao mảng phát triển bền vững của NVIDIA, chia sẻ: "Chúng tôi đang thấy xu hướng mạnh mẽ chuyển sang công nghệ làm mát bằng chất lỏng trực tiếp lên chip, giúp giảm đáng kể nhu cầu dùng nước tại trung tâm dữ liệu".

Trong vài năm gần đây, mức tiêu thụ năng lượng đã giảm tới 100.000 lần. Chỉ trong 2 năm qua, năng lượng dùng cho suy luận AI đã giảm 96%, hệ thống trở nên hiệu quả gấp 25 lần cho cùng một khối lượng công việc.

Trong khi chờ AI "xanh" hơn, với mỗi cá nhân người dùng, dù sử dụng AI trong công việc, giải trí hay "bắt trend", nghĩ đến môi trường một chút trước khi "enter" cũng không phải là đòi hỏi gì quá đáng.

Việc tiếp cận nguồn nước sạch đã trở thành nguyên nhân gây căng thẳng xã hội và chính trị ở nhiều nơi, và sự phát triển bùng nổ của AI đang có nguy cơ làm trầm trọng thêm tình hình.

Trong vụ cháy rừng và thiếu nước dập lửa trầm trọng ở Los Angeles đầu năm nay, AI bỗng dưng bị "buộc tội" làm căng thẳng nguồn nước. Tất nhiên trung tâm dữ liệu AI không hút cạn nguồn nước lẽ ra có thể dùng để chữa cháy, nhưng lời kêu gọi nghĩ tới tài nguyên nước khi dùng AI không phải là thừa.

Có người sẽ nói: cháy rừng hay khan hiếm nước ở tận đâu, liên quan gì tới tôi, một người dùng cá nhân? Daniel Kearney, giám đốc công nghệ của Firmus Technologies, chuyên xây dựng giải pháp vận hành bền vững cho các công ty AI, không nghĩ vậy.

"Dù một truy vấn riêng lẻ có vẻ chẳng đáng là bao, nhưng khi hàng triệu người dùng tương tác với AI thì con số đó sẽ cộng dồn rất nhanh" - ông nói với HuffPost.

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận