[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก
1 หมื่นเท่า 10 ปีผมว่าเป็นไปได้ยากวะ
ไม่ถึงขนาดนั้นค่ะ
การ์ดจอตัวเดียวก็รันได้แล้ว
อย่าง llama 3, mistral 7b ก็รันบนการ์ดจอเกมธรรมดาได้
ถ้า quantization ก็รันบนมือถือได้แล้ว
ทุกวันนี้ที่ใช้เยอะๆคือตอนเทรนข้อมูล
เพราะแบบจำลองทางภาษาต้องอ่านหนังสือเยอะ
ยิ่งอ่านเยอะก็รู้เยอะ ตรงนี้ที่ต้องใช้เครื่องใหญ่ในการสอน
ผมว่าท่านเข้าใจผิดนะตรงนี้ 2 ประเด็น
1.Generative AI ไม่ใช่ AGI มันเป็นเชิง machine learning ในการเติมคำช่องว่างมากกว่า มันไม่ได้มีสัมปัญชัญยะเป็นของตัวเอง มันไม่ได้มีความเข้าใจเนื้อหาหรืออะไรจริงๆเลย เราแค่นำคำตอบที่มีอยู่แล้วมาเทรน model เพราะฉะนั้นมันไม่สามารถฉลาดขึ้นเองได้หรือคิดวิเคราะห์ได้ด้วยตัวเองมันจึงยากที่จะฉลาดกว่ามนุษย์ 10000 เท่าหรือแม้แต่ฉลาดเท่ามนุษย์ด้วยซ้ำ แต่ AGI เหมือนมนุษย์จริงๆคือมันสามารถทำความเข้าใจเรื่องต่างๆและเรียนรู้ฉลาดขึ้นด้วยตัวเอง คิดอะไรใหม่ๆขึ้นมาด้วยตัวเองโดยไม่ต้องมีข้อมูลป้อนให้เข้าไปแบบ Generative AI
2.Model ขนาดใหญ่เบิ้มแบบที่ GPT-4o Llama3 Gemini 1.5 ใช้นั้นไม่สามารถรันบนการ์ดจอตัวเดียวได้ครับ ที่จริงไม่สามารถรันบรการ์ดจอเล่นเกมส์ได้ด้วยซ้ำแม้แต่ 4090 ก็ตาม โมเดลขนาดใหญ่เป็น 10billion trillon token ต้องรันบนพวก H100 H200 ที่พึ่งออกใหม่นู้นเลยครับ
ถ้าเป็นการ์ดจอ high end แบบ 4090 อาจจะพอรันโมเดลตัวเล็กได้อย่างพวก Gemini Flash, Llama 3 ตัวเล็ก (token น้อย) แต่model เล็กๆได้แค่เรื่อง speed กับประหยัดการคำนวณเฉยๆ แต่มันทำ task ฉลาดๆเท่า model ตัวใหญ่ไม่ได้ ตัดออกไปได้เลยความเป็นไปได้ในอีก 10 ปีที่จะรัน model ตัวใหญ่บนมือถือ smart phone อย่างตัว Apple Intelligence ก็รัน model ตัวติ๊ดเดียวบนเครื่องเพื่องานบางอย่างที่ง่ายๆส่วนงาน complex ยากๆก็ส่งขึ้นประมวลผลบน private datacenter เหมือนเดิม
หนูไม่ได้เข้าใจอะไรผิดหรอกค่ะ โทษทีไม่ได้กลับมาตอบทันที
อย่าง llm เป็นแบบจำลองทางภาษาที่ใช้หลักการความน่าจะเป็นและสถิติมาตอบ
หากเอาการตอบอย่างมีเหตุผลตรรกะมันจะผิด เพราะเบื้องหลังคือสถิติ
แต่เราสามารถเอาแบบจำลองอื่นๆมาร่วมด้วยได้เช่นพวก Machnine Learning ทั่วไปนี้แหละมีเหตุผลมากๆ และตัวเล็กสุดๆด้วย เพราะพื้นฐานมาจากหลักคณิตศาสตร์ คิดคำนวน
เราสามารถใช้ llm ทำการ Extract feature หรือ Extract information ออกมา แล้วโยนเข้า ML เพื่อทำการคำนวนต่อได้
อย่า GPT-4o ทำไมจะรันใน GPU ตัวเดียวไม่ได้ เขาแค่ไม่เปิดโครงสร้างให้เราดู
OpenAI ใช้ Expert Model หมายถึง ลดความรู้ให้เหลือเฉพาะด้าน ไม่ต้องอ่านหนังสือทั้งหมด โมเดลจะเล็กลง ทำงานได้ไวขึ้น สำหรับการให้บริการ OpenAI ก็เปิดให้มี Expert หลายๆตัว แต่หน้ากากเราไม่รู้ว่าเรากำลังคุยกับตัวไหน
ที่บอกว่า llama 3 รันบน GPU ไม่ได้ก็ไม่ถูกแล้วค่ะ
https://ollama.com/library/llama3
modelarch
llama
·
parameters
8.03B
·
quantization
Q4_0 = 4.7GB
รันบน 4070 ก็ได้
อย่างที่บอกว่าใช้ทรัพยากรเยอะสุดตอนเทรน คือต้องการหนังสือมาให้มันอ่านเยอะที่สุดจึงจำเป็นต้องใช้หน่วยความจำเยอะที่สุดเท่าที่อยากให้มันเรียนรู้ จะกี่พันล้าน แสนล้านคำก็ตาม
สุดท้ายโมเดลจะอยู่ในโครงสร้างเครือข่ายประสาทเทียมที่เตรียมไว้แล้ว ว่าจะเป็นโครงไหน แบบจำลองจะไม่ใหญ่ไปกว่าที่เขาออกแบบไว้ให้ไม่ใหญ่แค่ไหน เพราะถ้าไม่กำหนดขนาดของแบบจำลองไว้ คอมพิวเตอร์ทุกเครื่องคงพังก่อนได้ใช้งาน
เวลาเขียนโปรแกรมยังต้องประกาศตัวแปล และขนาดของตัวแปล เช่นเดียวกันกับ สถาปัตยกรรมของเอไอ ต้องประกาศชั้น โหนดของโครงข่ายประสาทเทียมไว้ แต่ละโหนด เรียกรวมๆกันว่า parameter ซึ่งเก็บค่าน้ำหนักและค่าความเอนเอียงไว้
เช่น llama 3 8b หมายถึงมี 8พันล้านกิ่งตัดสินใจ ทำ quantization 4bit แต่ละกิ่งเก็บค่าข้อมูลตัวเลข 4 bit 2 ตัวแปล เป็น 8bit ก็เท่ากับ 8Gbyte ตอนรัน
สรุปว่า Model สามารถย่อได้ สามารถสกัดข้อมูลออกมา และสามารถคำนวนได้ค่ะ
งานวิจัยพวกนี้ทำมานานแล้ว ที่เราเห็นเขาทำเล่นใหญ่เพราะเขามีคนที่ต้องให้บริการมาก ไม่ได้ใช้งานคนเดียว
เสริมนะคะ AI คิดได้มีมานานแล้ว 60-70 ปีได้แล้ว
แต่ที่เพิ่งมามีคือ AI อ่าน Pattern เพราะต้องอ่านข้อมูลเยอะ
ถ้าสกัดข้อมูลออกมาเป็นตัวเลขได้แล้วก็คำนวนต่อแปปเดียว
จึงแย้งตามความเห็นนี้
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก
ว่าไม่จริง ว่ารันเท่าสมองคนๆหนึ่งต้องใช้เท่า datacenter
เอาแค่ base model ตัวเล็กๆ ก็สอบแข่งขันเข้ามหาวิทยาลัยชนะเด็กแล้ว
ที่ใหญ่เพราะตอนเทรนกินข้อมูลเยอะ กับต้องให้บริการเยอะ
contactme themasksoccer@gmail.com