ที่ผ่านมาเมื่อพูดถึง AI ภาพที่หลายคนนึกถึงมักเป็นแชตบอท ระบบสร้างภาพ หรือโมเดลภาษาที่ตอบคำถามได้อย่างชาญฉลาด แต่ทั้งหมดนั้นยังคงอยู่ในโลกดิจิทัล เป็นระบบที่ “คิดได้” แต่ยังไม่สามารถ “ลงมือทำ” ได้จริงในโลกที่เต็มไปด้วยแรงโน้มถ่วง การเคลื่อนไหว และความไม่แน่นอน
Physical AI จึงเกิดขึ้นเพื่อเติมเต็มช่องว่างนี้ และถูกผลักดันอย่างชัดเจนโดย Jensen Huang ซึ่งมองว่า AI กำลังก้าวเข้าสู่ยุคใหม่ที่เครื่องจักรไม่ได้เพียงแค่เข้าใจข้อมูล แต่ต้องเข้าใจ “โลกจริง” และสามารถโต้ตอบกับมันได้อย่างมีความหมาย
แนวคิดการทำงาน ของ Physical AI
หาก Generative AI และโมเดลภาษาขนาดใหญ่ (LLMs) คือการทำให้เครื่องจักรเข้าใจ “ภาษา” Physical AI ก็คือการทำให้เครื่องจักรเข้าใจ “พฤติกรรมของโลกกายภาพ” ในมิติของเวลาและพื้นที่ คำถามสำคัญจึงไม่ใช่แค่ว่า AI จะพูดหรือเขียนได้ดีแค่ไหน แต่คือมันจะเข้าใจการเปลี่ยนแปลงของวัตถุ การเคลื่อนไหว และปฏิสัมพันธ์ในโลกจริงได้ลึกเพียงใด
จุดต่างสำคัญอยู่ที่ “แหล่งข้อมูล” LLMs เรียนรู้จากข้อความจำนวนมหาศาลบนอินเทอร์เน็ต ซึ่งเป็นสิ่งที่มนุษย์สร้างและตีความขึ้นมา แต่ข้อมูลเหล่านี้สะท้อนเพียงบางส่วนของโลกจริงเท่านั้น เพราะเราไม่สามารถมองเห็นอุณหภูมิ ไม่สามารถได้ยินองค์ประกอบทางเคมีของอากาศ และไม่สามารถรับรู้การเปลี่ยนแปลงระดับจุลภาคได้อย่างครบถ้วน
ด้วยเหตุนี้ Physical AI จึงต้องก้าวข้ามข้อจำกัดเดิม ด้วยการเรียนรู้จาก “ข้อมูลเซนเซอร์โดยตรง” ไม่ว่าจะเป็นกล้อง ไมโครโฟน LIDAR เรดาร์ เซนเซอร์อุณหภูมิ ความดัน อินฟราเรด หรือแม้แต่เซนเซอร์ทางเคมี ข้อมูลเหล่านี้สะท้อนคุณสมบัติของโลกในมิติที่หลากหลาย ทั้งเชิงพื้นที่ เวลา และพฤติกรรมของสสาร
ในบริบทนี้ NVIDIA อธิบายว่า Physical AI ต้องประกอบด้วยความสามารถหลักสามส่วนที่ทำงานต่อเนื่องกัน ได้แก่ การรับรู้ การให้เหตุผล และการกระทำ ทั้งสามส่วนต้องเชื่อมโยงกันแบบเรียลไทม์ เพราะในโลกจริง การตัดสินใจที่ช้าเพียงเสี้ยววินาทีอาจนำไปสู่ผลลัพธ์ที่ต่างออกไปอย่างสิ้นเชิง สิ่งที่ตามมาคือการเปลี่ยนบทบาทของเครื่องจักรอย่างชัดเจน จากเดิมที่ทำงานตามคำสั่งในสภาพแวดล้อมที่ควบคุมได้ กลายเป็นระบบที่สามารถ “คิดเป็น” และ “ปรับตัวได้”
ตัวอย่างการใช้งาน Physical AI
หุ่นยนต์ในคลังสินค้าสามารถหลบสิ่งกีดขวางและมนุษย์ได้โดยอัตโนมัติ
แขนกลสามารถปรับแรงจับตามลักษณะของวัตถุ

หุ่นยนต์ทางการแพทย์สามารถเรียนรู้การเคลื่อนไหวที่ละเอียดซับซ้อน
ตัวอย่างที่ชัดเจนคือรถยนต์ไร้คนขับ การขับรถไม่ใช่เพียงการรู้เส้นทาง แต่ต้องเข้าใจบริบททั้งหมดรอบตัว ตั้งแต่คนเดินถนนไปจนถึงพฤติกรรมของรถคันอื่น Physical AI ทำให้รถสามารถประมวลผลข้อมูลจากเซนเซอร์จำนวนมาก วิเคราะห์สถานการณ์ และตัดสินใจได้ภายในเวลาเพียงเสี้ยววินาที ซึ่งเป็นสิ่งที่เกิดขึ้นไม่ได้หากไม่มีการฝึกในสภาพแวดล้อมที่สมจริง
จากโลกจำลองสู่ทักษะจริงของหุ่นยนต์

เบื้องหลังของการฝึกนี้คือโลกจำลอง หรือ Digital Twin ที่ทำหน้าที่เป็นห้องเรียนของ AI ผ่านแพลตฟอร์มอย่าง NVIDIA Omniverse นักพัฒนาสามารถสร้างแบบจำลองของโลกจริงขึ้นมา และปล่อยให้ AI ทดลอง เรียนรู้ และล้มเหลวได้โดยไม่มีความเสี่ยง ข้อมูลที่เกิดขึ้นในกระบวนการนี้หรือ Synthetic Data มีบทบาทสำคัญอย่างมาก เพราะสามารถสร้างได้ในปริมาณมหาศาลและครอบคลุมสถานการณ์ที่หลากหลายเกินกว่าที่โลกจริงจะรองรับได้
การเรียนรู้ของ AI ในบริบทนี้ยังอาศัยแนวคิดของ Reinforcement Learning ซึ่งเลียนแบบการเรียนรู้ของมนุษย์ผ่านการลองผิดลองถูก ยิ่งทดลองมากเท่าไร ระบบก็ยิ่งเข้าใจมากขึ้นและปรับปรุงตัวเองได้ดีขึ้น กระบวนการนี้ทำให้หุ่นยนต์สามารถพัฒนาทักษะที่ซับซ้อนได้จริง โดยไม่ต้องอาศัยการเขียนคำสั่งอย่างละเอียดในทุกขั้นตอน
สรุป Physical AI
อย่างไรก็ตาม Physical AI ไม่ได้เป็นเพียงโมเดลหรืออัลกอริทึมหนึ่งตัว แต่เป็นโครงสร้างระบบขนาดใหญ่ที่ต้องทำงานร่วมกัน ตั้งแต่การฝึกโมเดลด้วยคอมพิวเตอร์ประสิทธิภาพสูงอย่าง NVIDIA DGX การสร้างและทดสอบในโลกจำลอง ไปจนถึงการนำไปใช้งานจริงบนอุปกรณ์อย่าง NVIDIA Jetson ที่สามารถประมวลผลและตอบสนองได้ภายในเวลาไม่กี่มิลลิวินาที
Physical AI ไม่ใช่แค่การทำให้ AI ฉลาดขึ้น แต่คือการเปลี่ยนบทบาทของมันจาก “ผู้เข้าใจข้อมูล” ไปสู่ “ผู้ลงมือปฏิบัติ” ในโลกจริง และตามมุมมองของ Jensen Huang นี่คือการเปลี่ยนแปลงครั้งใหญ่ที่อาจมีผลกระทบไม่ต่างจากการมาถึงของอินเทอร์เน็ตหรือสมาร์ตโฟน
อ้างอิงจาก Nvidia
Cr. หงส์ไทย , Woonsen








