AI กับพลังงานนิวเคลียร์ สู่การพัฒนาพลังงานไม่สิ้นสุด

 

Amazon เป็นบริษัทที่มีชื่อเสียงไม่เพียงแต่ในฐานะตลาดออนไลน์ที่ใหญ่ที่สุดและมีประสบการณ์มากที่สุดแห่งหนึ่งเท่านั้น แต่ยังเป็นหนึ่งในผู้ให้บริการ Data Center ที่ใหญ่ที่สุด และสิ่งที่หลายคนอาจไม่รู้คือ Amazon ยังเป็นเจ้าของและผู้ดำเนินการโรงไฟฟ้านิวเคลียร์อีกด้วย

และเมื่อไม่นานมานี้ AWS ซึ่งเป็นบริษัทลูกด้าน Cloud ของ Amazon ได้ซื้อ Data Center พลังงานนิวเคลียร์มูลค่า 650 ล้านดอลลาร์จาก Talen Energy ในรัฐเพนซิลเวเนีย ซึ่งดีลนี้บ่งชี้ถึงแผนการขยายตัวของ Amazon แต่หากมองลึกลงไป การที่ Amazon ซื้อโรงไฟฟ้านิวเคลียร์สะท้อนถึงปัญหาที่เพิ่มขึ้น ที่ Amazon และยักษ์ใหญ่ด้านเทคโนโลยีอื่นๆ กำลังเผชิญ นั่นคือความต้องการพลังงานอย่างไม่จำกัดจาก AI

ในกรณีของ Amazon, AWS ซื้อ Data Center พลังงานนิวเคลียร์ของ Talen Energy ในรัฐเพนซิลเวเนีย เพื่อวางศูนย์ข้อมูล AI ที่กำลังขยายตัวอย่างรวดเร็ว ไว้ใกล้กับแหล่งพลังงาน เพื่อรองรับความต้องการพลังงานที่ AI สร้างขึ้น ซึ่งกลยุทธ์นี้เป็นสัญญาณของปัญหาพลังงานที่กำลังก่อตัวขึ้น เมื่อ AI แทรกซึมเข้าไปในชีวิตประจำวันของผู้บริโภค ตั้งแต่การค้นหาทางอินเทอร์เน็ต อุปกรณ์อัจฉริยะ ไปจนถึงรถยนต์

บริษัทอย่าง Google, Apple และ Tesla ยังคงพัฒนาความสามารถของ AI ด้วยสินค้าและบริการใหม่ๆ ซึ่งแต่ละงานของ AI ต้องการพลังงานในการประมวลผลจำนวนมหาศาล ซึ่งหมายถึงปริมาณการใช้ไฟฟ้า ผ่าน Data Center ที่กินพลังงานจำนวนมาก

ประมาณการว่าภายในปี 2027 การใช้ไฟฟ้าที่เกี่ยวข้องกับ AI ทั่วโลก อาจเพิ่มขึ้น 64% โดยอาจสูงถึง 134 Terawatt/hours ต่อปี ซึ่งเทียบเท่ากับการใช้ไฟฟ้าของประเทศอย่างเนเธอร์แลนด์หรือสวีเดน นี่จึงเป็นคำถามสำคัญว่า บริษัท Big Tech จะจัดการกับความต้องการพลังงาน ที่นวัตกรรม AI ในอนาคตต้องการอย่างไร?

Sasha Luccioni นักวิจัยและนักวิทยาศาสตร์ข้อมูลชื่อดัง ผู้ดำรงตำแหน่ง AI and Climate Lead ของ Hugging Face ซึ่งเป็นบริษัทที่สร้างเครื่องมือสำหรับแอปพลิเคชัน AI อธิบายว่า แม้การ train AI model จะใช้พลังงานมาก เช่น การ train GPT-3 model ใช้ไฟฟ้าประมาณ 1,300 Megawatt/hours แต่โดยปกติจะเกิดขึ้นเพียงครั้งเดียว อย่างไรก็ตาม ในช่วง Inference phase ซึ่ง model สร้างคำตอบ อาจต้องใช้พลังงานมากยิ่งขึ้นเนื่องจากปริมาณ query ที่มหาศาล ยกตัวอย่างเช่น เมื่อผู้ใช้ถาม AI model อย่าง ChatGPT คำถาม จะมีการส่ง request ไปยัง Data Center ที่มี processor ทรงพลังเพื่อสร้างคำตอบ กระบวนการนี้แม้จะเร็ว แต่ใช้พลังงานมากกว่าการค้นหาทั่วไปใน Google ประมาณ 10 เท่า

ผู้ใช้พลังงานรายใหญ่ที่สุดคือบริษัท Big Tech หรือที่เรียกว่า Hyperscaler ซึ่งมีศักยภาพในการขยาย AI อย่างรวดเร็วด้วยบริการ Cloud ของตน โดย Microsoft, Alphabet, Meta และ Amazon เพียงอย่างเดียว คาดว่าจะใช้เงิน 189 พันล้านดอลลาร์ในด้าน AI ในปี 2024

เมื่อการใช้พลังงานจาก AI เติบโตขึ้น ก็เพิ่มแรงกดดันให้กับระบบพลังงานที่ตึงเครียดอยู่แล้ว จึงคาดการณ์ว่าภายในปี 2030 ความต้องการพลังงานของ Data Center ทั่วโลก จะเพิ่มขึ้น 160% และอาจคิดเป็น 8% ของความต้องการไฟฟ้าทั้งหมดในสหรัฐฯ

อย่างไรก็ตาม พลังงานหมุนเวียนยังคงเป็นส่วนสำคัญของกลยุทธ์ของบริษัทเทคโนโลยียักษ์ใหญ่ แม้ว่าจะไม่สามารถตอบสนองความต้องการด้านพลังงานของ AI ทั้งหมดได้ โดยทาง Microsoft ได้ลงนามในข้อตกลงการซื้อพลังงานไฟฟ้าขององค์กรที่ใหญ่ที่สุดเท่าที่เคยมีมากับ Brookfield ซึ่งเป็นยักษ์ใหญ่ด้านการจัดการทรัพย์สินและสินทรัพย์ เพื่อส่งมอบกำลังการผลิตพลังงานหมุนเวียนใหม่มากกว่า 10.5 กิกะวัตต์ทั่วโลก ผ่านเทคโนโลยีการผลิตพลังงานลม แสงอาทิตย์ และพลังงานปลอดคาร์บอนอื่น ๆ นอกจากนี้ บริษัทยังได้ลงทุนอย่างหนักในความพยายามกำจัดคาร์บอนเพื่อชดเชยการปล่อยก๊าซเรือนกระจกในระดับอุตสาหกรรมที่ 8.2 ล้านตัน

ส่วนทาง Amazon ยังได้ลงทุนอย่างมากในพลังงานหมุนเวียน โดยวางตำแหน่งตัวเองเป็นผู้ซื้อพลังงานหมุนเวียนรายใหญ่ที่สุดในโลกเป็นปีที่สี่ติดต่อกัน พอร์ตโฟลิโอของบริษัทตอนนี้รวมถึงพลังงานลมและแสงอาทิตย์ที่เพียงพอต่อการจ่ายไฟให้กับบ้านในสหรัฐฯ 7.2 ล้านหลังต่อปี

นอกเหนือจากการจัดหาพลังงานที่สะอาดกว่าแล้ว บริษัทเทคโนโลยียักษ์ใหญ่ยังลงทุนในประสิทธิภาพด้วย เช่น บริษัทอย่าง Google กำลังพัฒนาชิป AI เฉพาะ เช่น Tensor Processing Unit (TPU) ที่ได้รับการปรับให้เหมาะสมสำหรับงาน AI แทนที่จะใช้ graphical processing units (GPUs) ซึ่งถูกสร้างขึ้นสำหรับเทคโนโลยีเกม ส่วนทางNvidia อ้างว่า GPU Blackwell รุ่นล่าสุดสามารถลดการใช้พลังงานและต้นทุนของโมเดล AI ได้ถึง 25 เท่าเมื่อเทียบกับเวอร์ชันก่อนหน้า

 

แหล่งที่มา: yahoo.com

Share to everyone