ทุกครั้งที่คุณพิมพ์คำถามลงใน ChatGPT หรือ Claude แล้วรอคำตอบไม่กี่วินาที… เบื้องหลังมีเซิร์ฟเวอร์หลายพันตัวทำงานหนักอยู่ในอาคารขนาดเท่าห้างสรรพสินค้า ใช้ไฟฟ้าตลอด 24 ชั่วโมง และต้องมีระบบระบายความร้อนที่กินไฟอีกเท่าตัว
AI กินไฟมากแค่ไหน? คำตอบอาจทำให้คุณตกใจ เพราะตัวเลขจาก IEA (International Energy Agency หรือทบวงพลังงานระหว่างประเทศ) และ Goldman Sachs ชี้ตรงกันว่า พลังงานที่ Data Center ใช้กำลังจะเพิ่มขึ้นแบบที่โลกไม่เคยเจอมาก่อน
ถาม ChatGPT ทีเดียว กินไฟเท่าไหร่?
เริ่มจากเรื่องเล็กก่อน คุณอาจเคยเห็นข่าวที่บอกว่า “ถาม ChatGPT ทีเดียวกินไฟมากกว่า Google 10 เท่า” ข่าวนี้เคยจริงในปี 2023 แต่ตอนนี้ล้าสมัยแล้ว
Epoch AI วิเคราะห์ว่า ChatGPT รุ่น GPT-4o ใช้ไฟประมาณ 0.3 วัตต์-ชั่วโมง (Wh) ต่อคำถาม ซึ่งใกล้เคียงกับ Google Search ที่ใช้ประมาณ 0.3 Wh เช่นกัน ตัวเลข “10 เท่า” ที่เคยเป็นข่าวนั้นมาจากการประเมินรุ่นเก่าที่กินทรัพยากรมากกว่า
ถ้าจะเทียบให้เห็นภาพ 0.3 Wh น้อยกว่าไฟที่หลอด LED ใช้ในหนึ่งนาที น้อยกว่าการชาร์จมือถือ 1 นาที และน้อยกว่าการต้มน้ำร้อนหนึ่งแก้วหลายสิบเท่า
แต่ปัญหาไม่ได้อยู่ที่ “ต่อคำถาม” ปัญหาอยู่ที่ “จำนวนคำถามรวม” ที่มหาศาล ChatGPT มีผู้ใช้งานหลายร้อยล้านคน ถามวันละหลายพันล้านคำถาม เมื่อคูณเข้าไป ตัวเลขก็ระเบิด
ภาพใหญ่: Data Center ทั่วโลกกินไฟเท่าไหร่?
ทีนี้มาดูภาพใหญ่กัน ตัวเลขจะน่าตกใจมากขึ้น
IEA ประเมินว่าปี 2024 Data Center ทั่วโลกใช้ไฟฟ้ารวม 415 TWh (เทระวัตต์-ชั่วโมง) คิดเป็นประมาณ 1.5% ของไฟฟ้าที่โลกทั้งใบผลิตได้ ฟังดูน้อย แต่ 415 TWh นี่มากกว่าไฟฟ้าที่ประเทศไทยใช้ทั้งปีเสียอีก (ไทยใช้ประมาณ 200 TWh ต่อปี)
แล้วมันกำลังจะพุ่งขึ้นอีก S&P Global อ้างรายงาน IEA ว่าภายในปี 2030 ตัวเลขจะพุ่งเป็น 945 TWh ในกรณีปกติ หรือเกือบ 3% ของไฟฟ้าโลก
Goldman Sachs คาดว่าความต้องการไฟฟ้าของ Data Center จะพุ่ง 165% ภายในปี 2030 เทียบกับปี 2023 โดย AI เป็นตัวขับเคลื่อนหลัก
เฉพาะสหรัฐอเมริกาประเทศเดียว Data Center ใช้ไฟ 176 TWh ต่อปี คิดเป็น 4.4% ของไฟฟ้าทั้งประเทศ และกำลังเพิ่มขึ้นเรื่อยๆ
| ปี | ไฟฟ้าที่ Data Center ใช้ (ทั่วโลก) | สัดส่วนของไฟฟ้าโลก | แหล่งข้อมูล |
|---|---|---|---|
| 2024 | 415 TWh | ~1.5% | IEA |
| 2026 (คาดการณ์) | >1,000 TWh | ~3% | IEA |
| 2030 (คาดการณ์) | 945-1,100 TWh | ~3% | IEA / Goldman Sachs |
ถ้าคุณสนใจว่าเทรนด์เทคโนโลยีอะไรกำลังเปลี่ยนโลก ลองอ่าน Gartner 10 เทรนด์เทคโนโลยี 2026 ที่ผมเคยสรุปไว้ พลังงาน AI เป็นหนึ่งในประเด็นที่ Gartner พูดถึง
ทำไม AI ถึงกินไฟเยอะกว่าซอฟต์แวร์ทั่วไป?
คำตอบสั้นๆ คือ ชิป AI ทำงานหนักกว่าชิปทั่วไปหลายเท่า
GPU vs CPU: ซอฟต์แวร์ทั่วไปรันบน CPU แต่ AI ต้องใช้ GPU (Graphics Processing Unit หรือชิปประมวลผลกราฟิก) หรือชิปเฉพาะทางอย่าง NVIDIA H100 หรือ B200 ซึ่งกินไฟตัวละ 700-1,000 วัตต์ เทียบกับ CPU เซิร์ฟเวอร์ทั่วไปที่กิน 200-300 วัตต์ และ Data Center สมัยใหม่ยัด GPU เหล่านี้เข้าไปหลายพันหลายหมื่นตัว
Training vs Inference: การ “เทรน” โมเดล AI (สอนให้ AI เรียนรู้) กินไฟมหาศาล IEEE Spectrum รายงานว่าการเทรน GPT-4 ใช้ไฟฟ้าหลายสิบ GWh แต่สิ่งที่กินไฟมากกว่าในระยะยาวคือ “inference” (การให้ AI ตอบคำถาม) เพราะมันเกิดขึ้นตลอด 24 ชั่วโมง ทุกวัน กับผู้ใช้หลายร้อยล้านคน
ระบบหล่อเย็น (Cooling): GPU ที่ทำงานหนักสร้างความร้อนมหาศาล Data Center ต้องใช้ไฟอีก 30-40% ของพลังงานทั้งหมดเพื่อระบายความร้อน ตัวเลขนี้เรียกว่า PUE (Power Usage Effectiveness หรือดัชนีประสิทธิภาพการใช้พลังงาน) ถ้า PUE เท่ากับ 1.3 หมายความว่าทุกๆ 1 วัตต์ที่ใช้คำนวณ ต้องใช้อีก 0.3 วัตต์เพื่อระบายความร้อน
ถ้าอยากรู้ว่า Quantum Computing จะมาช่วยแก้ปัญหาพลังงาน AI ได้ไหม ลองอ่าน Quantum x AI ที่ผมเคยเขียนไว้
แล้วประเทศไทยล่ะ? Data Center กำลังบุกหนัก
เรื่องนี้ไม่ได้ไกลตัวคนไทยเลย เพราะตอนนี้ไทยกำลังกลายเป็นจุดหมายของ Data Center ระดับโลก
ฐานเศรษฐกิจรายงานว่ามีการอนุมัติคำขอใช้ไฟฟ้าจาก Data Center ไปแล้ว 16 ราย คิดเป็นกำลังไฟ 4,000 เมกะวัตต์ และยังมีผู้ที่อยู่ระหว่างการสอบถามอีกกว่า 40-50 ราย รวมปริมาณอีก 10,000 เมกะวัตต์
ตัวเลข 14,000 เมกะวัตต์นี้ใหญ่แค่ไหน? กำลังผลิตไฟฟ้าทั้งหมดของไทยตอนนี้อยู่ที่ประมาณ 50,000 เมกะวัตต์ หมายความว่า Data Center อาจต้องการไฟเพิ่มถึง 28% ของกำลังผลิตที่มีอยู่
รัฐมนตรีว่าการกระทรวงพลังงานประกาศว่า “AI คือไฟฟ้าใหม่” และรัฐบาลมีแผน Quick Big Win เพื่อดึงดูดการลงทุน Data Center โดยตั้งเป้าให้ไทยเป็นศูนย์กลาง Data Center ของอาเซียน
บริษัทเทคยักษ์ใหญ่ที่ปักหมุดในไทยแล้ว ได้แก่ Google Cloud Region เปิดตัวในกรุงเทพฯ ต้นปี 2026, AWS วางงบลงทุนระยะยาวกว่า 1.9 แสนล้านบาท และ Microsoft ที่ปักหมุด Data Center แห่งแรกในไทย
คำถามสำคัญคือ… ไทยจะหาไฟมาจากไหน? และจะเป็นไฟสะอาดหรือไฟจากฟอสซิล? เพราะบริษัทเทคยักษ์ใหญ่ทุกรายมีเป้าหมาย Net Zero (ปล่อยก๊าซเรือนกระจกสุทธิเป็นศูนย์) และจะไม่ลงทุนในที่ที่ไฟฟ้ามาจากถ่านหินเป็นหลัก
ทางออกอยู่ตรงไหน? เทคโนโลยีที่กำลังแก้ปัญหา
ข่าวดีคือ ปัญหานี้ไม่ใช่ทางตัน บริษัทเทคยักษ์ใหญ่กำลังลงทุนมหาศาลเพื่อหาทางออก
นิวเคลียร์ขนาดเล็ก (SMR): ทางเลือกที่ร้อนแรงที่สุด
Microsoft ทำดีลมูลค่า 1.6 พันล้านดอลลาร์กับ Constellation Energy เพื่อเปิดโรงไฟฟ้านิวเคลียร์ Three Mile Island กลับมาใช้งานอีกครั้ง ให้ไฟ 835 เมกะวัตต์ ป้อน Data Center โดยเฉพาะ สัญญา 20 ปี
Google ทำข้อตกลงกับ Kairos Power สร้างโรงไฟฟ้านิวเคลียร์ขนาดเล็ก (SMR หรือ Small Modular Reactor) กำลังผลิตรวม 500 เมกะวัตต์ โดยโรงแรกจะเปิดใช้งานปี 2030
Amazon ลงทุนกว่า 20,000 ล้านดอลลาร์ในโครงการนิวเคลียร์ ร่วมกับ X-energy ตั้งเป้าผลิตไฟจาก SMR 5 กิกะวัตต์ภายในปี 2039
พลังงานหมุนเวียนและชิปประหยัดไฟ
นอกจากนิวเคลียร์ ยังมีแนวทางอื่นที่ช่วยลดปัญหา NVIDIA Blackwell (ชิป AI รุ่นใหม่ล่าสุดที่เปิดตัวใน GTC 2026) ใช้พลังงานต่อ token น้อยลงกว่ารุ่นเก่าอย่างมาก ทำให้ AI ประมวลผลได้มากขึ้นโดยไม่ต้องเพิ่มไฟ
ระบบ Liquid Cooling (หล่อเย็นด้วยของเหลว) กำลังแทนที่ระบบแอร์แบบเดิม ซึ่งประหยัดพลังงานได้ถึง 40% เมื่อเทียบกับ Air Cooling แบบเดิม
Google ประกาศเป้าหมาย 24/7 Carbon-Free Energy ซึ่งหมายความว่าทุกชั่วโมงที่ Data Center ทำงาน ไฟฟ้าต้องมาจากพลังงานสะอาด 100% ไม่ใช่แค่ซื้อ carbon credit (ใบรับรองการชดเชยคาร์บอน) มาชดเชยทีหลัง
| บริษัท | แผนพลังงาน | กำลังผลิต | เป้าหมาย |
|---|---|---|---|
| Microsoft | เปิด Three Mile Island นิวเคลียร์ | 835 MW | เริ่มปี 2028 |
| SMR กับ Kairos Power | 500 MW | เริ่มปี 2030 | |
| Amazon | SMR กับ X-energy + นิวเคลียร์เดิม | 5 GW | ครบปี 2039 |
สรุป: AI กินไฟจริง แต่ทางออกกำลังมา
AI กินไฟมากไหม? มาก และกำลังจะมากขึ้นเรื่อยๆ Data Center ทั่วโลกกินไฟเท่ากับประเทศขนาดใหญ่ทั้งประเทศ และตัวเลขจะเพิ่มขึ้นอีก 165% ภายในปี 2030
แต่นี่ไม่ใช่ทางตัน บริษัทเทคยักษ์ใหญ่กำลังลงทุนหลายหมื่นล้านดอลลาร์ในพลังงานนิวเคลียร์, พลังงานหมุนเวียน, ชิปที่ประหยัดไฟขึ้น และระบบหล่อเย็นแบบใหม่
สำหรับคนทั่วไปอย่างเรา สิ่งที่ทำได้คือ… ใช้ AI อย่างมีสติ เลือก model ที่เหมาะกับงาน (ไม่ต้องใช้ GPT-4 ทุกเรื่อง ถ้า GPT-4o mini ตอบได้ก็ใช้ตัวเล็กก่อน) และรู้ว่าทุกครั้งที่เราถาม AI มีต้นทุนพลังงานอยู่เบื้องหลัง
พลังงานเป็นต้นทุนที่มองไม่เห็น แต่มันจะเป็นตัวกำหนดว่า AI จะเติบโตได้เร็วแค่ไหน และใครจะเป็นผู้ชนะในสงครามนี้
ติดตาม cheesepie ได้ที่
Twitter/X: @cheesepie_content · TikTok: @cheesepie_content
ที่ผมอ้างอิง
- Energy demand from AI โดย IEA (2025)
- AI to drive 165% increase in data center power demand by 2030 โดย Goldman Sachs (2024)
- How much energy does ChatGPT use? โดย Epoch AI (2025)
- Global data center power demand to double by 2030 โดย S&P Global (2025)
- AI Data Center Power Crisis 2026 โดย Tech Insider (2026)
- Big Tech Embraces Nuclear Power to Fuel AI โดย IEEE Spectrum (2024)
- Microsoft Powers Data Centers with Three Mile Island Nuclear โดย IEEE Spectrum (2024)
- Google signs nuclear energy agreement with Kairos Power โดย Google Blog (2024)
- Google and Amazon Make Major Inroads with SMRs โดย Data Center Frontier (2024)
- กางแผน 3 บิ๊กพลังงาน รับลงทุน Data Center ดีมานด์ใช้ไฟพุ่ง 14,000 เมกะวัตต์ โดย ฐานเศรษฐกิจ (2026)
- รมว.พลังงาน ชี้ เมื่อ AI คือไฟฟ้าใหม่ โดย Spring News (2026)
- เจาะลึก 5 เทรนด์ Data Center ยุค AI โดย Techsauce (2026)
- Data Center AI ดันความต้องการใช้ไฟฟ้า พุ่ง 2 เท่าใน 5 ปี โดย ไทยรัฐ (2026)
- Green AI & Data Hub: พลิกโฉมโครงสร้างพื้นฐานไทย โดย กรมประชาสัมพันธ์ (2026)
- Data Centres, AI and Cryptocurrencies Eye Advanced Nuclear โดย IAEA (2025)
- Data Centers and AI Energy Consumption โดย Global Electricity (2025)