BLOG BOARD_B
ติดต่อรายละเอียดเพิ่มเติมได้ที่ Email: sale@soccersuck.com
ไว้คราวหน้า X
ไว้คราวหน้า X
ไม่ต้องแสดงข้อความนี้อีกเลย
ไปหน้าที่ 1, 2, 3
ไปที่หน้า
GO
ตั้งกระทู้ใหม่
ฝากรูป
ผู้ตั้ง
ข้อความ
ออฟไลน์
นักเตะกลางซอย
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 10 Mar 2007
ตอบ: 1192
ที่อยู่:
โพสเมื่อ: Mon Jun 24, 2024 23:16
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
10 ปีนี่นานมากเลยนะสำหรับโลก AI ขนาดคนทำ GPT ยังบอกอนาคตไม่ได้เลย เพราะ AI มันเทรนได้ 24 ชั่วโมง มันรอแค่ Model ที่จะมาปลดล๊อคซึ่งตอนนี้ก็คือ AGI มันอาจจะเร็วกว่า 10 ปีก็ได้ แล้วก็ไม่ต้องไปคิดเรื่อง compute บนเครื่อง client หรอก เสียเวลาเปล่าเพราะมันแรงไม่ทันการพัฒนาของ AI แน่ เหมือน Microsoft จะรู้ตัวเลยตัด Copilot แบบ Offline ออก แล้วไปมุ่ง WebApp แทน ขอแค่มีเน็ตแรงๆ (ป่านนั้นก็ 6G 7G) อีกหน่อยเหลือแต่จอยังได้แล้ว Stream Data เอา
1
0
หากโดน 40 เรื้อน จะถูกแบน
ออนไลน์
ดาวซัลโวยุโรป
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 27 Mar 2020
ตอบ: 25064
ที่อยู่:
โพสเมื่อ: Mon Jun 24, 2024 23:24
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
MarkZuckerberg พิมพ์ว่า:
a.Raptor v.10 พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก

1 หมื่นเท่า 10 ปีผมว่าเป็นไปได้ยากวะ  


ไม่แน่

จัดเปนเรื่องๆตอนนี้ มันเก่งกว่าก้มีลนะ  

เก่งกว่าคนคือต้องคิดสิ่งที่คนคิดไม่ได้นะครับ ไม่ใช่แค่คิดเลขยากๆได้เฉยๆ

จริงๆผมว่าคนทั่วไปคิดไม่ถึงกับคำว่า "ฉลาดกว่าคน" คือต้องฉลาดขนาดไหน หลายๆเคสแค่เขียนโปรแกรมได้ คิดเลขยากๆได้ถือว่าเก่งกว่าคนแล้วซึ่งไม่ถูกเลย ทุกอย่างที่ Gen AI คิด ทุกโจทย์ที่ Gen AI ทำมนุษย์ทำได้หมดครับ แค่ต้องเป็นคนที่ฉลาดและชำนาญเท่านั้นเองไม่ใช่ average joe เพราะฉะนั้นสิ่งนี้คือว่าไม่ได้ฉลาดกว่ามนุษย์ครับเพราะมีคนทำได้

ฉลาดกว่ามนุษย์คือต้องทำในสิ่งที่ไม่มีมนุษย์คนไหนเคยคิดออกมาได้เลย ยกตัวอย่างเช่นถ้ามันคิดทฤษฏี quantum physic แบบสมบูรณ์ขึ้นมาได้ อะไรแบบนี้  


ก้ขั้นต่อไปไง

แต่เอาตอนนี้ สมมติว่าเลขยากๆ สมการยากๆ เรายังมีคนทำได้นิดเดียว ai ตอนนีทำดีกว่าเปนล้านเท่าแล้วมั้ง
0
0
หากโดน 40 เรื้อน จะถูกแบน

เมื่อไหร่โดนบังคับให้ไม่พูดสิ่งที่ควรพูด ถือว่าเราตายไปแล้ว :D
ออฟไลน์
ดาวซัลโวยุโรป
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 20 Oct 2009
ตอบ: 17820
ที่อยู่:
โพสเมื่อ: Mon Jun 24, 2024 23:44
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
ไม่มีทางฉลาดกว่ามนุษย์เลย เพราะAI ไม่รู้จักคำว่าจินตนาการ
1
0
หากโดน 40 เรื้อน จะถูกแบน
ออฟไลน์
ดาวเตะลา ลีกา
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 08 Apr 2024
ตอบ: 3264
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 00:53
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
a.Raptor v.10 พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
a.Raptor v.10 พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก

1 หมื่นเท่า 10 ปีผมว่าเป็นไปได้ยากวะ  


ไม่แน่

จัดเปนเรื่องๆตอนนี้ มันเก่งกว่าก้มีลนะ  

เก่งกว่าคนคือต้องคิดสิ่งที่คนคิดไม่ได้นะครับ ไม่ใช่แค่คิดเลขยากๆได้เฉยๆ

จริงๆผมว่าคนทั่วไปคิดไม่ถึงกับคำว่า "ฉลาดกว่าคน" คือต้องฉลาดขนาดไหน หลายๆเคสแค่เขียนโปรแกรมได้ คิดเลขยากๆได้ถือว่าเก่งกว่าคนแล้วซึ่งไม่ถูกเลย ทุกอย่างที่ Gen AI คิด ทุกโจทย์ที่ Gen AI ทำมนุษย์ทำได้หมดครับ แค่ต้องเป็นคนที่ฉลาดและชำนาญเท่านั้นเองไม่ใช่ average joe เพราะฉะนั้นสิ่งนี้คือว่าไม่ได้ฉลาดกว่ามนุษย์ครับเพราะมีคนทำได้

ฉลาดกว่ามนุษย์คือต้องทำในสิ่งที่ไม่มีมนุษย์คนไหนเคยคิดออกมาได้เลย ยกตัวอย่างเช่นถ้ามันคิดทฤษฏี quantum physic แบบสมบูรณ์ขึ้นมาได้ อะไรแบบนี้  


ก้ขั้นต่อไปไง

แต่เอาตอนนี้ สมมติว่าเลขยากๆ สมการยากๆ เรายังมีคนทำได้นิดเดียว ai ตอนนีทำดีกว่าเปนล้านเท่าแล้วมั้ง  

ต้องบอกว่ามาตราฐาน Gen AI สูงกว่าคนทั่วไปครับ แต่ไม่ได้ฉลาดกว่าความสามารถมนุษย์ ตราบใดที่มันยังเรียนรู้เองไม่ได้ผมก็ยังไม่ถือว่ามันเป็น AI ด้วยซ้ำ มันคือโปรแกรมเติมคำที่เก่งมากๆแค่นั้น
0
0
หากโดน 40 เรื้อน จะถูกแบน
ออฟไลน์
นักเตะอบต.
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 03 Nov 2014
ตอบ: 3925
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 02:29
AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี
pepino พิมพ์ว่า:
ดูเครดิตคนพูด

แล้วหันไปดูธุรกิจสตาร์ทอัพที่แกออกทุนให้แล้วขาดทุนจนก่ายหน้าผากตัวแล้วตัวเล่า (นอกจาก อเมซอน กับ อาลีบาบา แล้วยังไม่เห็นอันไหนรุ่งหลังจากนี้อีกเลย)

จะเชื่อดีมั้ยเนี่ย สู้ไปถามนักวิจัยด้านนี้ที่ไม่อยู่ใต้อาณัตบริษัทใหญ่ ๆ ดีกว่า  

ARM ไงครับ
โพสต์บนแอป Soccersuck บน Android
0
0
หากโดน 40 เรื้อน จะถูกแบน
ออฟไลน์
ผู้เยี่ยมชม
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 16 May 2020
ตอบ: 7534
ที่อยู่: ดาวโลก
โพสเมื่อ: Tue Jun 25, 2024 03:03
ถูกแบนแล้ว
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
ผมก็ว่าโม้แหละ​ เอาแค่ฉลาดกว่าสัก100เท่ายังแทบเป็นไปไม่ได้เลย​ ฉลาดที่ว่าคือคิดสิ่งใหม่นะ ไม่ใช้ก๊อปปี้จัดวางใหม่
0
0
หากโดน 40 เรื้อน จะถูกแบน
ออนไลน์
นักบอลลีกภูมิภาค
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 22 Oct 2012
ตอบ: 11052
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 07:06
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
AIมันคิดไม่เป็นนะแค่มีดาต้า แต่ไม่ได้ฉลาดแบบคนเลยไม่มีทางฉลาดแบบนั้นเลยไม่มีทางที่ฉลาดกว่าคน

เอาเรื่องง่ายๆสูตรกระเพราเนี่ยมีเป็นร้อยเป็นพันสูตรถ้าไม่ป้อนยี่ห้อน้ำปลา ซอสหอย อุณหภูมิการผัด กระทะที่ใช้
AIมันก็คิดไม่ได้หรอกว่าควรใช้เท่าไหร่10ปีก็เท่าเดิม
0
0
หากโดน 40 เรื้อน จะถูกแบน
ออฟไลน์
แข้งบุนเดสลีกา
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 22 Oct 2012
ตอบ: 8620
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 08:34
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
ถ้า ครีเอจ อะไรใหม่ๆ ไม่ได้ก็ยังไม่ว้าวนะ


0
0
หากโดน 40 เรื้อน จะถูกแบน
Talent bringt dich an den start, Einstellung ans ziel.
พรสวรรค์นำคุณไปที่จุดเริ่มต้น ทัศนคตินำคุณไปสู่เส้นชัย
ออฟไลน์
นักบอล ดิวิชั่น 1
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 11 Feb 2017
ตอบ: 1201
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 10:56
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก

1 หมื่นเท่า 10 ปีผมว่าเป็นไปได้ยากวะ  


ไม่ถึงขนาดนั้นค่ะ
การ์ดจอตัวเดียวก็รันได้แล้ว
อย่าง llama 3, mistral 7b ก็รันบนการ์ดจอเกมธรรมดาได้
ถ้า quantization ก็รันบนมือถือได้แล้ว

ทุกวันนี้ที่ใช้เยอะๆคือตอนเทรนข้อมูล
เพราะแบบจำลองทางภาษาต้องอ่านหนังสือเยอะ
ยิ่งอ่านเยอะก็รู้เยอะ ตรงนี้ที่ต้องใช้เครื่องใหญ่ในการสอน

 

ผมว่าท่านเข้าใจผิดนะตรงนี้ 2 ประเด็น

1.Generative AI ไม่ใช่ AGI มันเป็นเชิง machine learning ในการเติมคำช่องว่างมากกว่า มันไม่ได้มีสัมปัญชัญยะเป็นของตัวเอง มันไม่ได้มีความเข้าใจเนื้อหาหรืออะไรจริงๆเลย เราแค่นำคำตอบที่มีอยู่แล้วมาเทรน model เพราะฉะนั้นมันไม่สามารถฉลาดขึ้นเองได้หรือคิดวิเคราะห์ได้ด้วยตัวเองมันจึงยากที่จะฉลาดกว่ามนุษย์ 10000 เท่าหรือแม้แต่ฉลาดเท่ามนุษย์ด้วยซ้ำ แต่ AGI เหมือนมนุษย์จริงๆคือมันสามารถทำความเข้าใจเรื่องต่างๆและเรียนรู้ฉลาดขึ้นด้วยตัวเอง คิดอะไรใหม่ๆขึ้นมาด้วยตัวเองโดยไม่ต้องมีข้อมูลป้อนให้เข้าไปแบบ Generative AI

2.Model ขนาดใหญ่เบิ้มแบบที่ GPT-4o Llama3 Gemini 1.5 ใช้นั้นไม่สามารถรันบนการ์ดจอตัวเดียวได้ครับ ที่จริงไม่สามารถรันบรการ์ดจอเล่นเกมส์ได้ด้วยซ้ำแม้แต่ 4090 ก็ตาม โมเดลขนาดใหญ่เป็น 10billion trillon token ต้องรันบนพวก H100 H200 ที่พึ่งออกใหม่นู้นเลยครับ

ถ้าเป็นการ์ดจอ high end แบบ 4090 อาจจะพอรันโมเดลตัวเล็กได้อย่างพวก Gemini Flash, Llama 3 ตัวเล็ก (token น้อย) แต่model เล็กๆได้แค่เรื่อง speed กับประหยัดการคำนวณเฉยๆ แต่มันทำ task ฉลาดๆเท่า model ตัวใหญ่ไม่ได้ ตัดออกไปได้เลยความเป็นไปได้ในอีก 10 ปีที่จะรัน model ตัวใหญ่บนมือถือ smart phone อย่างตัว Apple Intelligence ก็รัน model ตัวติ๊ดเดียวบนเครื่องเพื่องานบางอย่างที่ง่ายๆส่วนงาน complex ยากๆก็ส่งขึ้นประมวลผลบน private datacenter เหมือนเดิม  


หนูไม่ได้เข้าใจอะไรผิดหรอกค่ะ โทษทีไม่ได้กลับมาตอบทันที
อย่าง llm เป็นแบบจำลองทางภาษาที่ใช้หลักการความน่าจะเป็นและสถิติมาตอบ
หากเอาการตอบอย่างมีเหตุผลตรรกะมันจะผิด เพราะเบื้องหลังคือสถิติ

แต่เราสามารถเอาแบบจำลองอื่นๆมาร่วมด้วยได้เช่นพวก Machnine Learning ทั่วไปนี้แหละมีเหตุผลมากๆ และตัวเล็กสุดๆด้วย เพราะพื้นฐานมาจากหลักคณิตศาสตร์ คิดคำนวน

เราสามารถใช้ llm ทำการ Extract feature หรือ Extract information ออกมา แล้วโยนเข้า ML เพื่อทำการคำนวนต่อได้

อย่า GPT-4o ทำไมจะรันใน GPU ตัวเดียวไม่ได้ เขาแค่ไม่เปิดโครงสร้างให้เราดู
OpenAI ใช้ Expert Model หมายถึง ลดความรู้ให้เหลือเฉพาะด้าน ไม่ต้องอ่านหนังสือทั้งหมด โมเดลจะเล็กลง ทำงานได้ไวขึ้น สำหรับการให้บริการ OpenAI ก็เปิดให้มี Expert หลายๆตัว แต่หน้ากากเราไม่รู้ว่าเรากำลังคุยกับตัวไหน

ที่บอกว่า llama 3 รันบน GPU ไม่ได้ก็ไม่ถูกแล้วค่ะ

https://ollama.com/library/llama3
modelarch
llama
·
parameters
8.03B
·
quantization
Q4_0 = 4.7GB

รันบน 4070 ก็ได้

อย่างที่บอกว่าใช้ทรัพยากรเยอะสุดตอนเทรน คือต้องการหนังสือมาให้มันอ่านเยอะที่สุดจึงจำเป็นต้องใช้หน่วยความจำเยอะที่สุดเท่าที่อยากให้มันเรียนรู้ จะกี่พันล้าน แสนล้านคำก็ตาม

สุดท้ายโมเดลจะอยู่ในโครงสร้างเครือข่ายประสาทเทียมที่เตรียมไว้แล้ว ว่าจะเป็นโครงไหน แบบจำลองจะไม่ใหญ่ไปกว่าที่เขาออกแบบไว้ให้ไม่ใหญ่แค่ไหน เพราะถ้าไม่กำหนดขนาดของแบบจำลองไว้ คอมพิวเตอร์ทุกเครื่องคงพังก่อนได้ใช้งาน

เวลาเขียนโปรแกรมยังต้องประกาศตัวแปล และขนาดของตัวแปล เช่นเดียวกันกับ สถาปัตยกรรมของเอไอ ต้องประกาศชั้น โหนดของโครงข่ายประสาทเทียมไว้ แต่ละโหนด เรียกรวมๆกันว่า parameter ซึ่งเก็บค่าน้ำหนักและค่าความเอนเอียงไว้

เช่น llama 3 8b หมายถึงมี 8พันล้านกิ่งตัดสินใจ ทำ quantization 4bit แต่ละกิ่งเก็บค่าข้อมูลตัวเลข 4 bit 2 ตัวแปล เป็น 8bit ก็เท่ากับ 8Gbyte ตอนรัน

สรุปว่า Model สามารถย่อได้ สามารถสกัดข้อมูลออกมา และสามารถคำนวนได้ค่ะ
งานวิจัยพวกนี้ทำมานานแล้ว ที่เราเห็นเขาทำเล่นใหญ่เพราะเขามีคนที่ต้องให้บริการมาก ไม่ได้ใช้งานคนเดียว

เสริมนะคะ AI คิดได้มีมานานแล้ว 60-70 ปีได้แล้ว
แต่ที่เพิ่งมามีคือ AI อ่าน Pattern เพราะต้องอ่านข้อมูลเยอะ
ถ้าสกัดข้อมูลออกมาเป็นตัวเลขได้แล้วก็คำนวนต่อแปปเดียว

จึงแย้งตามความเห็นนี้
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก  

ว่าไม่จริง ว่ารันเท่าสมองคนๆหนึ่งต้องใช้เท่า datacenter
เอาแค่ base model ตัวเล็กๆ ก็สอบแข่งขันเข้ามหาวิทยาลัยชนะเด็กแล้ว
ที่ใหญ่เพราะตอนเทรนกินข้อมูลเยอะ กับต้องให้บริการเยอะ

แก้ไขล่าสุดโดย themasksocccer เมื่อ Tue Jun 25, 2024 11:24, ทั้งหมด 4 ครั้ง
1
0
หากโดน 40 เรื้อน จะถูกแบน
contactme themasksoccer@gmail.com
ออฟไลน์
ดาวเตะลา ลีกา
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 08 Apr 2024
ตอบ: 3264
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 11:28
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก

1 หมื่นเท่า 10 ปีผมว่าเป็นไปได้ยากวะ  


ไม่ถึงขนาดนั้นค่ะ
การ์ดจอตัวเดียวก็รันได้แล้ว
อย่าง llama 3, mistral 7b ก็รันบนการ์ดจอเกมธรรมดาได้
ถ้า quantization ก็รันบนมือถือได้แล้ว

ทุกวันนี้ที่ใช้เยอะๆคือตอนเทรนข้อมูล
เพราะแบบจำลองทางภาษาต้องอ่านหนังสือเยอะ
ยิ่งอ่านเยอะก็รู้เยอะ ตรงนี้ที่ต้องใช้เครื่องใหญ่ในการสอน

 

ผมว่าท่านเข้าใจผิดนะตรงนี้ 2 ประเด็น

1.Generative AI ไม่ใช่ AGI มันเป็นเชิง machine learning ในการเติมคำช่องว่างมากกว่า มันไม่ได้มีสัมปัญชัญยะเป็นของตัวเอง มันไม่ได้มีความเข้าใจเนื้อหาหรืออะไรจริงๆเลย เราแค่นำคำตอบที่มีอยู่แล้วมาเทรน model เพราะฉะนั้นมันไม่สามารถฉลาดขึ้นเองได้หรือคิดวิเคราะห์ได้ด้วยตัวเองมันจึงยากที่จะฉลาดกว่ามนุษย์ 10000 เท่าหรือแม้แต่ฉลาดเท่ามนุษย์ด้วยซ้ำ แต่ AGI เหมือนมนุษย์จริงๆคือมันสามารถทำความเข้าใจเรื่องต่างๆและเรียนรู้ฉลาดขึ้นด้วยตัวเอง คิดอะไรใหม่ๆขึ้นมาด้วยตัวเองโดยไม่ต้องมีข้อมูลป้อนให้เข้าไปแบบ Generative AI

2.Model ขนาดใหญ่เบิ้มแบบที่ GPT-4o Llama3 Gemini 1.5 ใช้นั้นไม่สามารถรันบนการ์ดจอตัวเดียวได้ครับ ที่จริงไม่สามารถรันบรการ์ดจอเล่นเกมส์ได้ด้วยซ้ำแม้แต่ 4090 ก็ตาม โมเดลขนาดใหญ่เป็น 10billion trillon token ต้องรันบนพวก H100 H200 ที่พึ่งออกใหม่นู้นเลยครับ

ถ้าเป็นการ์ดจอ high end แบบ 4090 อาจจะพอรันโมเดลตัวเล็กได้อย่างพวก Gemini Flash, Llama 3 ตัวเล็ก (token น้อย) แต่model เล็กๆได้แค่เรื่อง speed กับประหยัดการคำนวณเฉยๆ แต่มันทำ task ฉลาดๆเท่า model ตัวใหญ่ไม่ได้ ตัดออกไปได้เลยความเป็นไปได้ในอีก 10 ปีที่จะรัน model ตัวใหญ่บนมือถือ smart phone อย่างตัว Apple Intelligence ก็รัน model ตัวติ๊ดเดียวบนเครื่องเพื่องานบางอย่างที่ง่ายๆส่วนงาน complex ยากๆก็ส่งขึ้นประมวลผลบน private datacenter เหมือนเดิม  


หนูไม่ได้เข้าใจอะไรผิดหรอกค่ะ โทษทีไม่ได้กลับมาตอบทันที
อย่าง llm เป็นแบบจำลองทางภาษาที่ใช้หลักการความน่าจะเป็นและสถิติมาตอบ
หากเอาการตอบอย่างมีเหตุผลตรรกะมันจะผิด เพราะเบื้องหลังคือสถิติ

แต่เราสามารถเอาแบบจำลองอื่นๆมาร่วมด้วยได้เช่นพวก Machnine Learning ทั่วไปนี้แหละมีเหตุผลมากๆ และตัวเล็กสุดๆด้วย เพราะพื้นฐานมาจากหลักคณิตศาสตร์ คิดคำนวน

เราสามารถใช้ llm ทำการ Extract feature หรือ Extract information ออกมา แล้วโยนเข้า ML เพื่อทำการคำนวนต่อได้

อย่า GPT-4o ทำไมจะรันใน GPU ตัวเดียวไม่ได้ เขาแค่ไม่เปิดโครงสร้างให้เราดู
OpenAI ใช้ Expert Model หมายถึง ลดความรู้ให้เหลือเฉพาะด้าน ไม่ต้องอ่านหนังสือทั้งหมด โมเดลจะเล็กลง ทำงานได้ไวขึ้น สำหรับการให้บริการ OpenAI ก็เปิดให้มี Expert หลายๆตัว แต่หน้ากากเราไม่รู้ว่าเรากำลังคุยกับตัวไหน

ที่บอกว่า llama 3 รันบน GPU ไม่ได้ก็ไม่ถูกแล้วค่ะ

https://ollama.com/library/llama3
modelarch
llama
·
parameters
8.03B
·
quantization
Q4_0 = 4.7GB

รันบน 4070 ก็ได้

อย่างที่บอกว่าใช้ทรัพยากรเยอะสุดตอนเทรน คือต้องการหนังสือมาให้มันอ่านเยอะที่สุดจึงจำเป็นต้องใช้หน่วยความจำเยอะที่สุดเท่าที่อยากให้มันเรียนรู้ จะกี่พันล้าน แสนล้านคำก็ตาม

สุดท้ายโมเดลจะอยู่ในโครงสร้างเครือข่ายประสาทเทียมที่เตรียมไว้แล้ว ว่าจะเป็นโครงไหน แบบจำลองจะไม่ใหญ่ไปกว่าที่เขาออกแบบไว้ให้ไม่ใหญ่แค่ไหน เพราะถ้าไม่กำหนดขนาดของแบบจำลองไว้ คอมพิวเตอร์ทุกเครื่องคงพังก่อนได้ใช้งาน

เวลาเขียนโปรแกรมยังต้องประกาศตัวแปล และขนาดของตัวแปล เช่นเดียวกันกับ สถาปัตยกรรมของเอไอ ต้องประกาศชั้น โหนดของโครงข่ายประสาทเทียมไว้ แต่ละโหนด เรียกรวมๆกันว่า parameter ซึ่งเก็บค่าน้ำหนักและค่าความเอนเอียงไว้

เช่น llama 3 8b หมายถึงมี 8พันล้านกิ่งตัดสินใจ ทำ quantization 4bit แต่ละกิ่งเก็บค่าข้อมูลตัวเลข 4 bit 2 ตัวแปล เป็น 8bit ก็เท่ากับ 8Gbyte ตอนรัน

สรุปว่า Model สามารถย่อได้ สามารถสกัดข้อมูลออกมา และสามารถคำนวนได้ค่ะ
งานวิจัยพวกนี้ทำมานานแล้ว ที่เราเห็นเขาทำเล่นใหญ่เพราะเขามีคนที่ต้องให้บริการมาก ไม่ได้ใช้งานคนเดียว

 

1.llma 3 มันมีหลายเวอร์ชั่นไอ่ตัวเล็กๆรันได้ใน high end gaming card อย่างที่ผมบอกไปไงแต่มันรัน model ตัวใหญ่ไม่ได้ แถมถึงรันได้ performance ก็ช้ากว่าใช้พวก H100 H200 ไม่ทันกินหรอกครับไม่ใช่ว่าแค่ vram ถึงแล้วจะเอามาใช้งาน production grade ได้นะครับ 4070 cuda core 5พันกว่า tensor 180 เอง H200 x4 เข้าไปเลยครับ แถมมันยังมี component อื่นเช่น nvlink HBM3 memory อีกที่ทำให้การรัน model เร็วกว่า ยิ่งเวอร์ชั่นรันบน smart phone คือ model เล็กมากๆๆ ใช้ process พวก task ง่ายๆเท่านั้น ไม่ใกล้เคียงกับคำว่าฉลาด

2.ที่ผมบอกใช้ data center เท่า 2-3 สนามฟุตบอลคือจำลอง processing power ของสมองคนจริงๆครับ (ตอนนี้มีพวก black well แล้วอาจจะไม่ได้ใหญ่เท่า 2-3 สนามแต่ก็ใหญ่อยู่ดี) ซึ่ง processing power สมองคนเรามันไม่ใช่แค่การเติมคำในช่องว่างเหมือน Gen AI ไงครับ มันซับซ้อนกว่านั้นเยอะมากๆ

3.อย่างที่ผมบอกว่า Gen AI ผมไม่เห็นว่าจะเอามาฉลาดกว่ามนุษย์ได้เพราะมันถูก feed ข้อมูลที่มนุษย์คิดมาก่อนอยู่แล้วเข้าไป อย่างมากมันก็แค่ใช้ข้อมูลพวกนั้นเพื่อให้คำตอบที่ใกล้เคียงที่สุด ไม่ใช่เพราะมันรู้และเข้าใจคำตอบได้จริงๆ แต่อย่างที่คุณบอกมันเป็นเชิง stat มากกว่า ซึ่งถ้า AI จะฉลาดกว่ามนุษย์ได้ต้องไม่ใช่แค่เติมคำในช่องว่างจากสถิติ มันต้องสามารถเรียนรุ้เองได้ คิดอะไรใหม่ๆเองได้

4.ต้องทำความเข้าใจคำว่า "ฉลาดกว่ามนุษย์" ก่อน อะไรที่มนุษย์ทำได้คิดได้ ไม่ถือว่าฉลาดกว่านะครับ ฉลาดกว่าคนปรกติทั่วไปใช่ มาตราฐานสูงกว่าคนทั่วไปใช่ แต่คำว่าฉลาดคือต้องคิดได้สิ่งที่ไม่มีมนุษย์คนไหนสามารถคิดได้นะครับ เช่นคิดสูตร physic ใหม่ขึ้นมาที่โคตรซับซ้อนจนมนุษย์ไม่สามารถคิดได้ ถ้าท่านแค่อ้างว่า Gen AI จะฉลาดกว่ามนุษย์ได้ผมว่าเรายืนอยู่คนละข้างแล้วแหละ เพราะ Gen AI ไม่ใช่ AGI แบบ 100% เป็นแค่เสี้ยวนึงเท่านั้น

5.ถ้า Gen AI จะใกล้เคียงกับฉลาดเท่ามนุษย์จริงๆ หมายความว่าอย่างน้อยๆ AI ตัวนั้นต้องสามารถ participate ใน conversation เกี่ยวกับอะไรก็ได้แล้วก็เรียนรู้ด้วยตัวเองได้ไปด้วย ซึ่งอย่างน้อยถ้า Gen AI จะทำแบบนั้นได้คือต้อง รวบ model ทุกตัวบนโลกมารันพร้อมๆกันเช่น Model วาดรูป,สนทนา,วีดีโอ,สร้างเพลง,แต่งนิยาย บลาๆๆๆ ทุก function ที่ท่านสามารถนึกได้เลยเพราะ Gen AI แต่ละตัว เป็น model ที่เฉาพะทางเจาะจงกับ function นั้นๆ ต้องเอามารันพร้อนกันถึงจะสามารถครอบคลุมความสามารถมนุษย์คนนึงได้ คิดดูว่าถ้าต้องรัน model เยอะและใหญ่ขนาดนั้นต้องใช้ processing power ขนาดไหน
แก้ไขล่าสุดโดย MarkZuckerberg เมื่อ Tue Jun 25, 2024 11:38, ทั้งหมด 5 ครั้ง
0
0
หากโดน 40 เรื้อน จะถูกแบน
ออฟไลน์
นักบอล ดิวิชั่น 1
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 11 Feb 2017
ตอบ: 1201
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 11:37
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก

1 หมื่นเท่า 10 ปีผมว่าเป็นไปได้ยากวะ  


ไม่ถึงขนาดนั้นค่ะ
การ์ดจอตัวเดียวก็รันได้แล้ว
อย่าง llama 3, mistral 7b ก็รันบนการ์ดจอเกมธรรมดาได้
ถ้า quantization ก็รันบนมือถือได้แล้ว

ทุกวันนี้ที่ใช้เยอะๆคือตอนเทรนข้อมูล
เพราะแบบจำลองทางภาษาต้องอ่านหนังสือเยอะ
ยิ่งอ่านเยอะก็รู้เยอะ ตรงนี้ที่ต้องใช้เครื่องใหญ่ในการสอน

 

ผมว่าท่านเข้าใจผิดนะตรงนี้ 2 ประเด็น

1.Generative AI ไม่ใช่ AGI มันเป็นเชิง machine learning ในการเติมคำช่องว่างมากกว่า มันไม่ได้มีสัมปัญชัญยะเป็นของตัวเอง มันไม่ได้มีความเข้าใจเนื้อหาหรืออะไรจริงๆเลย เราแค่นำคำตอบที่มีอยู่แล้วมาเทรน model เพราะฉะนั้นมันไม่สามารถฉลาดขึ้นเองได้หรือคิดวิเคราะห์ได้ด้วยตัวเองมันจึงยากที่จะฉลาดกว่ามนุษย์ 10000 เท่าหรือแม้แต่ฉลาดเท่ามนุษย์ด้วยซ้ำ แต่ AGI เหมือนมนุษย์จริงๆคือมันสามารถทำความเข้าใจเรื่องต่างๆและเรียนรู้ฉลาดขึ้นด้วยตัวเอง คิดอะไรใหม่ๆขึ้นมาด้วยตัวเองโดยไม่ต้องมีข้อมูลป้อนให้เข้าไปแบบ Generative AI

2.Model ขนาดใหญ่เบิ้มแบบที่ GPT-4o Llama3 Gemini 1.5 ใช้นั้นไม่สามารถรันบนการ์ดจอตัวเดียวได้ครับ ที่จริงไม่สามารถรันบรการ์ดจอเล่นเกมส์ได้ด้วยซ้ำแม้แต่ 4090 ก็ตาม โมเดลขนาดใหญ่เป็น 10billion trillon token ต้องรันบนพวก H100 H200 ที่พึ่งออกใหม่นู้นเลยครับ

ถ้าเป็นการ์ดจอ high end แบบ 4090 อาจจะพอรันโมเดลตัวเล็กได้อย่างพวก Gemini Flash, Llama 3 ตัวเล็ก (token น้อย) แต่model เล็กๆได้แค่เรื่อง speed กับประหยัดการคำนวณเฉยๆ แต่มันทำ task ฉลาดๆเท่า model ตัวใหญ่ไม่ได้ ตัดออกไปได้เลยความเป็นไปได้ในอีก 10 ปีที่จะรัน model ตัวใหญ่บนมือถือ smart phone อย่างตัว Apple Intelligence ก็รัน model ตัวติ๊ดเดียวบนเครื่องเพื่องานบางอย่างที่ง่ายๆส่วนงาน complex ยากๆก็ส่งขึ้นประมวลผลบน private datacenter เหมือนเดิม  


หนูไม่ได้เข้าใจอะไรผิดหรอกค่ะ โทษทีไม่ได้กลับมาตอบทันที
อย่าง llm เป็นแบบจำลองทางภาษาที่ใช้หลักการความน่าจะเป็นและสถิติมาตอบ
หากเอาการตอบอย่างมีเหตุผลตรรกะมันจะผิด เพราะเบื้องหลังคือสถิติ

แต่เราสามารถเอาแบบจำลองอื่นๆมาร่วมด้วยได้เช่นพวก Machnine Learning ทั่วไปนี้แหละมีเหตุผลมากๆ และตัวเล็กสุดๆด้วย เพราะพื้นฐานมาจากหลักคณิตศาสตร์ คิดคำนวน

เราสามารถใช้ llm ทำการ Extract feature หรือ Extract information ออกมา แล้วโยนเข้า ML เพื่อทำการคำนวนต่อได้

อย่า GPT-4o ทำไมจะรันใน GPU ตัวเดียวไม่ได้ เขาแค่ไม่เปิดโครงสร้างให้เราดู
OpenAI ใช้ Expert Model หมายถึง ลดความรู้ให้เหลือเฉพาะด้าน ไม่ต้องอ่านหนังสือทั้งหมด โมเดลจะเล็กลง ทำงานได้ไวขึ้น สำหรับการให้บริการ OpenAI ก็เปิดให้มี Expert หลายๆตัว แต่หน้ากากเราไม่รู้ว่าเรากำลังคุยกับตัวไหน

ที่บอกว่า llama 3 รันบน GPU ไม่ได้ก็ไม่ถูกแล้วค่ะ

https://ollama.com/library/llama3
modelarch
llama
·
parameters
8.03B
·
quantization
Q4_0 = 4.7GB

รันบน 4070 ก็ได้

อย่างที่บอกว่าใช้ทรัพยากรเยอะสุดตอนเทรน คือต้องการหนังสือมาให้มันอ่านเยอะที่สุดจึงจำเป็นต้องใช้หน่วยความจำเยอะที่สุดเท่าที่อยากให้มันเรียนรู้ จะกี่พันล้าน แสนล้านคำก็ตาม

สุดท้ายโมเดลจะอยู่ในโครงสร้างเครือข่ายประสาทเทียมที่เตรียมไว้แล้ว ว่าจะเป็นโครงไหน แบบจำลองจะไม่ใหญ่ไปกว่าที่เขาออกแบบไว้ให้ไม่ใหญ่แค่ไหน เพราะถ้าไม่กำหนดขนาดของแบบจำลองไว้ คอมพิวเตอร์ทุกเครื่องคงพังก่อนได้ใช้งาน

เวลาเขียนโปรแกรมยังต้องประกาศตัวแปล และขนาดของตัวแปล เช่นเดียวกันกับ สถาปัตยกรรมของเอไอ ต้องประกาศชั้น โหนดของโครงข่ายประสาทเทียมไว้ แต่ละโหนด เรียกรวมๆกันว่า parameter ซึ่งเก็บค่าน้ำหนักและค่าความเอนเอียงไว้

เช่น llama 3 8b หมายถึงมี 8พันล้านกิ่งตัดสินใจ ทำ quantization 4bit แต่ละกิ่งเก็บค่าข้อมูลตัวเลข 4 bit 2 ตัวแปล เป็น 8bit ก็เท่ากับ 8Gbyte ตอนรัน

สรุปว่า Model สามารถย่อได้ สามารถสกัดข้อมูลออกมา และสามารถคำนวนได้ค่ะ
งานวิจัยพวกนี้ทำมานานแล้ว ที่เราเห็นเขาทำเล่นใหญ่เพราะเขามีคนที่ต้องให้บริการมาก ไม่ได้ใช้งานคนเดียว

 

1.llma 3 มันมีหลายเวอร์ชั่นไอ่ตัวเล็กๆรันได้ใน high end gaming card อย่างที่ผมบอกไปไงแต่มันรัน model ตัวใหญ่ไม่ได้ แถมถึงรันได้ performance ก็ช้ากว่าใช้พวก H100 H200 ไม่ทันกินหรอกครับไม่ใช่ว่าแค่ vram ถึงแล้วจะเอามาใช้งาน production grade ได้นะครับ 4070 cuda core 5พันกว่า tensor 180 เอง H200 x4 เข้าไปเลยครับ ยิ่งเวอร์ชั่นรันบน smart phone คือ model เล็กมากๆๆ ใช้ process พวก task ง่ายๆเท่านั้น ไม่ใกล้เคียงกับคำว่าฉลาด
- ทำได้ด้วยการ Quantization ลดจุดทศนิยมในการคิดลงจาก 16bit เหลือ 4bit โมเดลจะลดลงไปเยอะ
หนูทำใช้งานจริงมาแล้ว 70b quantize4 สมมติคิดเลข 1.1234567890123456 กับ 1.1234 ค่าไม่ต่างกันมาก แต่กิน memory ต่างกันมาก ความผิดพลาดมีได้แต่ไม่ใช่แบบคนละเรื่องกัน

https://www.reddit.com/r/LocalLLaMA/comments/1cj4det/llama_3_70b_instruct_works_surprisingly_well_on/

2.ที่ผมบอกใช้ data center เท่า 2-3 สนามฟุตบอลคือจำลอง processing power ของสมองคนจริงๆครับ (ตอนนี้มีพวก black well แล้วอาจจะไม่ได้ใหญ่เท่า 2-3 สนามแต่ก็ใหญ่อยู่ดี) ซึ่ง processing power สมองคนเรามันไม่ใช่แค่การเติมคำในช่องว่างเหมือน Gen AI ไงครับ มันซับซ้อนกว่านั้นเยอะมากๆ

อย่างที่บอกว่า llm เบื้องหลังคือหลักสถิติมันคำนวนไม่ได้
แต่สามารถใช้สกัดข้อมูลออกมาได้ ดังนั้นไม่ใช่แค่เติมคำ
ต่อมานำข้อมูลที่ได้ โยนเข้า Machine Learning ธรรมดาที่ใช้ทรัพยากรเครื่องน้อย เอาง่ายๆเครื่องคิดเลขไม่ได้กินทรัพยากรเครื่อง


3.อย่างที่ผมบอกว่า Gen AI ผมไม่เห็นว่าจะเอามาฉลาดกว่ามนุษย์ได้เพราะมันถูก feed ข้อมูลที่มนุษย์คิดมาก่อนอยู่แล้วเข้าไป อย่างมากมันก็แค่ใช้ข้อมูลพวกนั้นเพื่อให้คำตอบที่ใกล้เคียงที่สุด ไม่ใช่เพราะมันรู้และเข้าใจคำตอบได้จริงๆ แต่อย่างที่คุณบอกมันเป็นเชิง stat มากกว่า ซึ่งถ้า AI จะฉลาดกว่ามนุษย์ได้ต้องไม่ใช่แค่เติมคำในช่องว่างจากสถิติ มันต้องสามารถเรียนรุ้เองได้ คิดอะไรใหม่ๆเองได้

AI ไม่ได้เก่งกว่าคนที่คิดค้น AI
แต่เก่งกว่าคนทั่วไปที่ไม่ได้คิด AI และมีส่วนมากของประชากรโลกค่ะ
แต่ AI ก็มีหลากหลายตัวช่วยกันทำงานได้ อย่า chatgpt มันทำงานเบื้องหลังอยู่หลายตัว ไม่ใช่แค่ model ภาษาอย่างเดียวค่ะ


 
0
0
หากโดน 40 เรื้อน จะถูกแบน
contactme themasksoccer@gmail.com
ออฟไลน์
ดาวเตะลา ลีกา
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 08 Apr 2024
ตอบ: 3264
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 11:43
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก

1 หมื่นเท่า 10 ปีผมว่าเป็นไปได้ยากวะ  


ไม่ถึงขนาดนั้นค่ะ
การ์ดจอตัวเดียวก็รันได้แล้ว
อย่าง llama 3, mistral 7b ก็รันบนการ์ดจอเกมธรรมดาได้
ถ้า quantization ก็รันบนมือถือได้แล้ว

ทุกวันนี้ที่ใช้เยอะๆคือตอนเทรนข้อมูล
เพราะแบบจำลองทางภาษาต้องอ่านหนังสือเยอะ
ยิ่งอ่านเยอะก็รู้เยอะ ตรงนี้ที่ต้องใช้เครื่องใหญ่ในการสอน

 

ผมว่าท่านเข้าใจผิดนะตรงนี้ 2 ประเด็น

1.Generative AI ไม่ใช่ AGI มันเป็นเชิง machine learning ในการเติมคำช่องว่างมากกว่า มันไม่ได้มีสัมปัญชัญยะเป็นของตัวเอง มันไม่ได้มีความเข้าใจเนื้อหาหรืออะไรจริงๆเลย เราแค่นำคำตอบที่มีอยู่แล้วมาเทรน model เพราะฉะนั้นมันไม่สามารถฉลาดขึ้นเองได้หรือคิดวิเคราะห์ได้ด้วยตัวเองมันจึงยากที่จะฉลาดกว่ามนุษย์ 10000 เท่าหรือแม้แต่ฉลาดเท่ามนุษย์ด้วยซ้ำ แต่ AGI เหมือนมนุษย์จริงๆคือมันสามารถทำความเข้าใจเรื่องต่างๆและเรียนรู้ฉลาดขึ้นด้วยตัวเอง คิดอะไรใหม่ๆขึ้นมาด้วยตัวเองโดยไม่ต้องมีข้อมูลป้อนให้เข้าไปแบบ Generative AI

2.Model ขนาดใหญ่เบิ้มแบบที่ GPT-4o Llama3 Gemini 1.5 ใช้นั้นไม่สามารถรันบนการ์ดจอตัวเดียวได้ครับ ที่จริงไม่สามารถรันบรการ์ดจอเล่นเกมส์ได้ด้วยซ้ำแม้แต่ 4090 ก็ตาม โมเดลขนาดใหญ่เป็น 10billion trillon token ต้องรันบนพวก H100 H200 ที่พึ่งออกใหม่นู้นเลยครับ

ถ้าเป็นการ์ดจอ high end แบบ 4090 อาจจะพอรันโมเดลตัวเล็กได้อย่างพวก Gemini Flash, Llama 3 ตัวเล็ก (token น้อย) แต่model เล็กๆได้แค่เรื่อง speed กับประหยัดการคำนวณเฉยๆ แต่มันทำ task ฉลาดๆเท่า model ตัวใหญ่ไม่ได้ ตัดออกไปได้เลยความเป็นไปได้ในอีก 10 ปีที่จะรัน model ตัวใหญ่บนมือถือ smart phone อย่างตัว Apple Intelligence ก็รัน model ตัวติ๊ดเดียวบนเครื่องเพื่องานบางอย่างที่ง่ายๆส่วนงาน complex ยากๆก็ส่งขึ้นประมวลผลบน private datacenter เหมือนเดิม  


หนูไม่ได้เข้าใจอะไรผิดหรอกค่ะ โทษทีไม่ได้กลับมาตอบทันที
อย่าง llm เป็นแบบจำลองทางภาษาที่ใช้หลักการความน่าจะเป็นและสถิติมาตอบ
หากเอาการตอบอย่างมีเหตุผลตรรกะมันจะผิด เพราะเบื้องหลังคือสถิติ

แต่เราสามารถเอาแบบจำลองอื่นๆมาร่วมด้วยได้เช่นพวก Machnine Learning ทั่วไปนี้แหละมีเหตุผลมากๆ และตัวเล็กสุดๆด้วย เพราะพื้นฐานมาจากหลักคณิตศาสตร์ คิดคำนวน

เราสามารถใช้ llm ทำการ Extract feature หรือ Extract information ออกมา แล้วโยนเข้า ML เพื่อทำการคำนวนต่อได้

อย่า GPT-4o ทำไมจะรันใน GPU ตัวเดียวไม่ได้ เขาแค่ไม่เปิดโครงสร้างให้เราดู
OpenAI ใช้ Expert Model หมายถึง ลดความรู้ให้เหลือเฉพาะด้าน ไม่ต้องอ่านหนังสือทั้งหมด โมเดลจะเล็กลง ทำงานได้ไวขึ้น สำหรับการให้บริการ OpenAI ก็เปิดให้มี Expert หลายๆตัว แต่หน้ากากเราไม่รู้ว่าเรากำลังคุยกับตัวไหน

ที่บอกว่า llama 3 รันบน GPU ไม่ได้ก็ไม่ถูกแล้วค่ะ

https://ollama.com/library/llama3
modelarch
llama
·
parameters
8.03B
·
quantization
Q4_0 = 4.7GB

รันบน 4070 ก็ได้

อย่างที่บอกว่าใช้ทรัพยากรเยอะสุดตอนเทรน คือต้องการหนังสือมาให้มันอ่านเยอะที่สุดจึงจำเป็นต้องใช้หน่วยความจำเยอะที่สุดเท่าที่อยากให้มันเรียนรู้ จะกี่พันล้าน แสนล้านคำก็ตาม

สุดท้ายโมเดลจะอยู่ในโครงสร้างเครือข่ายประสาทเทียมที่เตรียมไว้แล้ว ว่าจะเป็นโครงไหน แบบจำลองจะไม่ใหญ่ไปกว่าที่เขาออกแบบไว้ให้ไม่ใหญ่แค่ไหน เพราะถ้าไม่กำหนดขนาดของแบบจำลองไว้ คอมพิวเตอร์ทุกเครื่องคงพังก่อนได้ใช้งาน

เวลาเขียนโปรแกรมยังต้องประกาศตัวแปล และขนาดของตัวแปล เช่นเดียวกันกับ สถาปัตยกรรมของเอไอ ต้องประกาศชั้น โหนดของโครงข่ายประสาทเทียมไว้ แต่ละโหนด เรียกรวมๆกันว่า parameter ซึ่งเก็บค่าน้ำหนักและค่าความเอนเอียงไว้

เช่น llama 3 8b หมายถึงมี 8พันล้านกิ่งตัดสินใจ ทำ quantization 4bit แต่ละกิ่งเก็บค่าข้อมูลตัวเลข 4 bit 2 ตัวแปล เป็น 8bit ก็เท่ากับ 8Gbyte ตอนรัน

สรุปว่า Model สามารถย่อได้ สามารถสกัดข้อมูลออกมา และสามารถคำนวนได้ค่ะ
งานวิจัยพวกนี้ทำมานานแล้ว ที่เราเห็นเขาทำเล่นใหญ่เพราะเขามีคนที่ต้องให้บริการมาก ไม่ได้ใช้งานคนเดียว

 

1.llma 3 มันมีหลายเวอร์ชั่นไอ่ตัวเล็กๆรันได้ใน high end gaming card อย่างที่ผมบอกไปไงแต่มันรัน model ตัวใหญ่ไม่ได้ แถมถึงรันได้ performance ก็ช้ากว่าใช้พวก H100 H200 ไม่ทันกินหรอกครับไม่ใช่ว่าแค่ vram ถึงแล้วจะเอามาใช้งาน production grade ได้นะครับ 4070 cuda core 5พันกว่า tensor 180 เอง H200 x4 เข้าไปเลยครับ ยิ่งเวอร์ชั่นรันบน smart phone คือ model เล็กมากๆๆ ใช้ process พวก task ง่ายๆเท่านั้น ไม่ใกล้เคียงกับคำว่าฉลาด
- ทำได้ด้วยการ Quantization ลดจุดทศนิยมในการคิดลงจาก 16bit เหลือ 4bit โมเดลจะลดลงไปเยอะ
หนูทำใช้งานจริงมาแล้ว 70b quantize4 สมมติคิดเลข 1.1234567890123456 กับ 1.1234 ค่าไม่ต่างกันมาก แต่กิน memory ต่างกันมาก ความผิดพลาดมีได้แต่ไม่ใช่แบบคนละเรื่องกัน

https://www.reddit.com/r/LocalLLaMA/comments/1cj4det/llama_3_70b_instruct_works_surprisingly_well_on/

2.ที่ผมบอกใช้ data center เท่า 2-3 สนามฟุตบอลคือจำลอง processing power ของสมองคนจริงๆครับ (ตอนนี้มีพวก black well แล้วอาจจะไม่ได้ใหญ่เท่า 2-3 สนามแต่ก็ใหญ่อยู่ดี) ซึ่ง processing power สมองคนเรามันไม่ใช่แค่การเติมคำในช่องว่างเหมือน Gen AI ไงครับ มันซับซ้อนกว่านั้นเยอะมากๆ

อย่างที่บอกว่า llm เบื้องหลังคือหลักสถิติมันคำนวนไม่ได้
แต่สามารถใช้สกัดข้อมูลออกมาได้ ดังนั้นไม่ใช่แค่เติมคำ
ต่อมานำข้อมูลที่ได้ โยนเข้า Machine Learning ธรรมดาที่ใช้ทรัพยากรเครื่องน้อย เอาง่ายๆเครื่องคิดเลขไม่ได้กินทรัพยากรเครื่อง


3.อย่างที่ผมบอกว่า Gen AI ผมไม่เห็นว่าจะเอามาฉลาดกว่ามนุษย์ได้เพราะมันถูก feed ข้อมูลที่มนุษย์คิดมาก่อนอยู่แล้วเข้าไป อย่างมากมันก็แค่ใช้ข้อมูลพวกนั้นเพื่อให้คำตอบที่ใกล้เคียงที่สุด ไม่ใช่เพราะมันรู้และเข้าใจคำตอบได้จริงๆ แต่อย่างที่คุณบอกมันเป็นเชิง stat มากกว่า ซึ่งถ้า AI จะฉลาดกว่ามนุษย์ได้ต้องไม่ใช่แค่เติมคำในช่องว่างจากสถิติ มันต้องสามารถเรียนรุ้เองได้ คิดอะไรใหม่ๆเองได้

AI ไม่ได้เก่งกว่าคนที่คิดค้น AI
แต่เก่งกว่าคนทั่วไปที่ไม่ได้คิด AI และมีส่วนมากของประชากรโลกค่ะ
แต่ AI ก็มีหลากหลายตัวช่วยกันทำงานได้ อย่า chatgpt มันทำงานเบื้องหลังอยู่หลายตัว ไม่ใช่แค่ model ภาษาอย่างเดียวค่ะ


 
 

เท่าที่ผมอ่านผมว่าเราก็เข้าใจอะไรคล้ายๆกันนะ แต่ผมว่าประเด็นที่่เราเห็นไม่ตรงกันไปคือท่านน่าจะ underesitmate ความสามารถของสมองมุนษย์เกินไป เหมือนท่านคิดว่าพวกความสามารถของ LLM คือสมองมนุษย์แล้วอะ ซึ่งในความคิดผมไม่ใกล้เคียงเลย ในขณะที่ผมมองว่า LLM เป็นแค่มนุษย์ที่สามารถเติมคำในช่องว่างได้เก่งเฉยๆโดยที่ไม่ต้องมีความเข้าใจอะไรเลย ไม่ได้ฉลาดเหมือนมนุษย์จริง
แก้ไขล่าสุดโดย MarkZuckerberg เมื่อ Tue Jun 25, 2024 11:45, ทั้งหมด 2 ครั้ง
0
0
หากโดน 40 เรื้อน จะถูกแบน
ออฟไลน์
นักบอล ดิวิชั่น 1
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 11 Feb 2017
ตอบ: 1201
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 11:49
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
MarkZuckerberg พิมพ์ว่า:
Spoil
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก

1 หมื่นเท่า 10 ปีผมว่าเป็นไปได้ยากวะ  


ไม่ถึงขนาดนั้นค่ะ
การ์ดจอตัวเดียวก็รันได้แล้ว
อย่าง llama 3, mistral 7b ก็รันบนการ์ดจอเกมธรรมดาได้
ถ้า quantization ก็รันบนมือถือได้แล้ว

ทุกวันนี้ที่ใช้เยอะๆคือตอนเทรนข้อมูล
เพราะแบบจำลองทางภาษาต้องอ่านหนังสือเยอะ
ยิ่งอ่านเยอะก็รู้เยอะ ตรงนี้ที่ต้องใช้เครื่องใหญ่ในการสอน

 

ผมว่าท่านเข้าใจผิดนะตรงนี้ 2 ประเด็น

1.Generative AI ไม่ใช่ AGI มันเป็นเชิง machine learning ในการเติมคำช่องว่างมากกว่า มันไม่ได้มีสัมปัญชัญยะเป็นของตัวเอง มันไม่ได้มีความเข้าใจเนื้อหาหรืออะไรจริงๆเลย เราแค่นำคำตอบที่มีอยู่แล้วมาเทรน model เพราะฉะนั้นมันไม่สามารถฉลาดขึ้นเองได้หรือคิดวิเคราะห์ได้ด้วยตัวเองมันจึงยากที่จะฉลาดกว่ามนุษย์ 10000 เท่าหรือแม้แต่ฉลาดเท่ามนุษย์ด้วยซ้ำ แต่ AGI เหมือนมนุษย์จริงๆคือมันสามารถทำความเข้าใจเรื่องต่างๆและเรียนรู้ฉลาดขึ้นด้วยตัวเอง คิดอะไรใหม่ๆขึ้นมาด้วยตัวเองโดยไม่ต้องมีข้อมูลป้อนให้เข้าไปแบบ Generative AI

2.Model ขนาดใหญ่เบิ้มแบบที่ GPT-4o Llama3 Gemini 1.5 ใช้นั้นไม่สามารถรันบนการ์ดจอตัวเดียวได้ครับ ที่จริงไม่สามารถรันบรการ์ดจอเล่นเกมส์ได้ด้วยซ้ำแม้แต่ 4090 ก็ตาม โมเดลขนาดใหญ่เป็น 10billion trillon token ต้องรันบนพวก H100 H200 ที่พึ่งออกใหม่นู้นเลยครับ

ถ้าเป็นการ์ดจอ high end แบบ 4090 อาจจะพอรันโมเดลตัวเล็กได้อย่างพวก Gemini Flash, Llama 3 ตัวเล็ก (token น้อย) แต่model เล็กๆได้แค่เรื่อง speed กับประหยัดการคำนวณเฉยๆ แต่มันทำ task ฉลาดๆเท่า model ตัวใหญ่ไม่ได้ ตัดออกไปได้เลยความเป็นไปได้ในอีก 10 ปีที่จะรัน model ตัวใหญ่บนมือถือ smart phone อย่างตัว Apple Intelligence ก็รัน model ตัวติ๊ดเดียวบนเครื่องเพื่องานบางอย่างที่ง่ายๆส่วนงาน complex ยากๆก็ส่งขึ้นประมวลผลบน private datacenter เหมือนเดิม  


หนูไม่ได้เข้าใจอะไรผิดหรอกค่ะ โทษทีไม่ได้กลับมาตอบทันที
อย่าง llm เป็นแบบจำลองทางภาษาที่ใช้หลักการความน่าจะเป็นและสถิติมาตอบ
หากเอาการตอบอย่างมีเหตุผลตรรกะมันจะผิด เพราะเบื้องหลังคือสถิติ

แต่เราสามารถเอาแบบจำลองอื่นๆมาร่วมด้วยได้เช่นพวก Machnine Learning ทั่วไปนี้แหละมีเหตุผลมากๆ และตัวเล็กสุดๆด้วย เพราะพื้นฐานมาจากหลักคณิตศาสตร์ คิดคำนวน

เราสามารถใช้ llm ทำการ Extract feature หรือ Extract information ออกมา แล้วโยนเข้า ML เพื่อทำการคำนวนต่อได้

อย่า GPT-4o ทำไมจะรันใน GPU ตัวเดียวไม่ได้ เขาแค่ไม่เปิดโครงสร้างให้เราดู
OpenAI ใช้ Expert Model หมายถึง ลดความรู้ให้เหลือเฉพาะด้าน ไม่ต้องอ่านหนังสือทั้งหมด โมเดลจะเล็กลง ทำงานได้ไวขึ้น สำหรับการให้บริการ OpenAI ก็เปิดให้มี Expert หลายๆตัว แต่หน้ากากเราไม่รู้ว่าเรากำลังคุยกับตัวไหน

ที่บอกว่า llama 3 รันบน GPU ไม่ได้ก็ไม่ถูกแล้วค่ะ

https://ollama.com/library/llama3
modelarch
llama
·
parameters
8.03B
·
quantization
Q4_0 = 4.7GB

รันบน 4070 ก็ได้

อย่างที่บอกว่าใช้ทรัพยากรเยอะสุดตอนเทรน คือต้องการหนังสือมาให้มันอ่านเยอะที่สุดจึงจำเป็นต้องใช้หน่วยความจำเยอะที่สุดเท่าที่อยากให้มันเรียนรู้ จะกี่พันล้าน แสนล้านคำก็ตาม

สุดท้ายโมเดลจะอยู่ในโครงสร้างเครือข่ายประสาทเทียมที่เตรียมไว้แล้ว ว่าจะเป็นโครงไหน แบบจำลองจะไม่ใหญ่ไปกว่าที่เขาออกแบบไว้ให้ไม่ใหญ่แค่ไหน เพราะถ้าไม่กำหนดขนาดของแบบจำลองไว้ คอมพิวเตอร์ทุกเครื่องคงพังก่อนได้ใช้งาน

เวลาเขียนโปรแกรมยังต้องประกาศตัวแปล และขนาดของตัวแปล เช่นเดียวกันกับ สถาปัตยกรรมของเอไอ ต้องประกาศชั้น โหนดของโครงข่ายประสาทเทียมไว้ แต่ละโหนด เรียกรวมๆกันว่า parameter ซึ่งเก็บค่าน้ำหนักและค่าความเอนเอียงไว้

เช่น llama 3 8b หมายถึงมี 8พันล้านกิ่งตัดสินใจ ทำ quantization 4bit แต่ละกิ่งเก็บค่าข้อมูลตัวเลข 4 bit 2 ตัวแปล เป็น 8bit ก็เท่ากับ 8Gbyte ตอนรัน

สรุปว่า Model สามารถย่อได้ สามารถสกัดข้อมูลออกมา และสามารถคำนวนได้ค่ะ
งานวิจัยพวกนี้ทำมานานแล้ว ที่เราเห็นเขาทำเล่นใหญ่เพราะเขามีคนที่ต้องให้บริการมาก ไม่ได้ใช้งานคนเดียว

 

1.llma 3 มันมีหลายเวอร์ชั่นไอ่ตัวเล็กๆรันได้ใน high end gaming card อย่างที่ผมบอกไปไงแต่มันรัน model ตัวใหญ่ไม่ได้ แถมถึงรันได้ performance ก็ช้ากว่าใช้พวก H100 H200 ไม่ทันกินหรอกครับไม่ใช่ว่าแค่ vram ถึงแล้วจะเอามาใช้งาน production grade ได้นะครับ 4070 cuda core 5พันกว่า tensor 180 เอง H200 x4 เข้าไปเลยครับ ยิ่งเวอร์ชั่นรันบน smart phone คือ model เล็กมากๆๆ ใช้ process พวก task ง่ายๆเท่านั้น ไม่ใกล้เคียงกับคำว่าฉลาด
- ทำได้ด้วยการ Quantization ลดจุดทศนิยมในการคิดลงจาก 16bit เหลือ 4bit โมเดลจะลดลงไปเยอะ
หนูทำใช้งานจริงมาแล้ว 70b quantize4 สมมติคิดเลข 1.1234567890123456 กับ 1.1234 ค่าไม่ต่างกันมาก แต่กิน memory ต่างกันมาก ความผิดพลาดมีได้แต่ไม่ใช่แบบคนละเรื่องกัน

https://www.reddit.com/r/LocalLLaMA/comments/1cj4det/llama_3_70b_instruct_works_surprisingly_well_on/

2.ที่ผมบอกใช้ data center เท่า 2-3 สนามฟุตบอลคือจำลอง processing power ของสมองคนจริงๆครับ (ตอนนี้มีพวก black well แล้วอาจจะไม่ได้ใหญ่เท่า 2-3 สนามแต่ก็ใหญ่อยู่ดี) ซึ่ง processing power สมองคนเรามันไม่ใช่แค่การเติมคำในช่องว่างเหมือน Gen AI ไงครับ มันซับซ้อนกว่านั้นเยอะมากๆ

อย่างที่บอกว่า llm เบื้องหลังคือหลักสถิติมันคำนวนไม่ได้
แต่สามารถใช้สกัดข้อมูลออกมาได้ ดังนั้นไม่ใช่แค่เติมคำ
ต่อมานำข้อมูลที่ได้ โยนเข้า Machine Learning ธรรมดาที่ใช้ทรัพยากรเครื่องน้อย เอาง่ายๆเครื่องคิดเลขไม่ได้กินทรัพยากรเครื่อง


3.อย่างที่ผมบอกว่า Gen AI ผมไม่เห็นว่าจะเอามาฉลาดกว่ามนุษย์ได้เพราะมันถูก feed ข้อมูลที่มนุษย์คิดมาก่อนอยู่แล้วเข้าไป อย่างมากมันก็แค่ใช้ข้อมูลพวกนั้นเพื่อให้คำตอบที่ใกล้เคียงที่สุด ไม่ใช่เพราะมันรู้และเข้าใจคำตอบได้จริงๆ แต่อย่างที่คุณบอกมันเป็นเชิง stat มากกว่า ซึ่งถ้า AI จะฉลาดกว่ามนุษย์ได้ต้องไม่ใช่แค่เติมคำในช่องว่างจากสถิติ มันต้องสามารถเรียนรุ้เองได้ คิดอะไรใหม่ๆเองได้

AI ไม่ได้เก่งกว่าคนที่คิดค้น AI
แต่เก่งกว่าคนทั่วไปที่ไม่ได้คิด AI และมีส่วนมากของประชากรโลกค่ะ
แต่ AI ก็มีหลากหลายตัวช่วยกันทำงานได้ อย่า chatgpt มันทำงานเบื้องหลังอยู่หลายตัว ไม่ใช่แค่ model ภาษาอย่างเดียวค่ะ


 
 
 

เท่าที่ผมอ่านผมว่าเราก็เข้าใจอะไรคล้ายๆกันนะ แต่ผมว่าประเด็นที่่เราเห็นไม่ตรงกันไปคือท่านน่าจะ underesitmate ความสามารถของสมองมุนษย์เกินไป  


ขออภัยนะคะ ตั้งแต่หัวกระทู้ไม่มีการยก Generative AI ขึ้นมา และหนูก็ไม่ได้พูดถึงเฉพาะ Gen AI เพราะการทำงานเบื้องหลังสามารถมีหลายตัวช่วยกันอยู่ได้ แต่หนูขอยืนยันว่ารัน AI ไม่ต้องใช้เครื่องใหญ่ ที่ใหญ่คือตอนเทรนค่ะ

หนูก็อ้างอิงจากข้อมูลที่เผยแพร่ อย่างโมเดลที่ทำโดยคนไทย ยังเก่งกว่าเด็กไทยไปแล้วเลยค่ะ โมเดล 7b เองนะคะ รันบนการ์ดจอได้ ดังนั้นหนูจึงยืนยันว่า ไม่ต้องใช้ data center สำหรับทำงานให้ได้เท่ามนุษย์
0
0
หากโดน 40 เรื้อน จะถูกแบน
contactme themasksoccer@gmail.com
ออฟไลน์
ดาวเตะลา ลีกา
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 08 Apr 2024
ตอบ: 3264
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 12:06
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
Spoil
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก

1 หมื่นเท่า 10 ปีผมว่าเป็นไปได้ยากวะ  


ไม่ถึงขนาดนั้นค่ะ
การ์ดจอตัวเดียวก็รันได้แล้ว
อย่าง llama 3, mistral 7b ก็รันบนการ์ดจอเกมธรรมดาได้
ถ้า quantization ก็รันบนมือถือได้แล้ว

ทุกวันนี้ที่ใช้เยอะๆคือตอนเทรนข้อมูล
เพราะแบบจำลองทางภาษาต้องอ่านหนังสือเยอะ
ยิ่งอ่านเยอะก็รู้เยอะ ตรงนี้ที่ต้องใช้เครื่องใหญ่ในการสอน

 

ผมว่าท่านเข้าใจผิดนะตรงนี้ 2 ประเด็น

1.Generative AI ไม่ใช่ AGI มันเป็นเชิง machine learning ในการเติมคำช่องว่างมากกว่า มันไม่ได้มีสัมปัญชัญยะเป็นของตัวเอง มันไม่ได้มีความเข้าใจเนื้อหาหรืออะไรจริงๆเลย เราแค่นำคำตอบที่มีอยู่แล้วมาเทรน model เพราะฉะนั้นมันไม่สามารถฉลาดขึ้นเองได้หรือคิดวิเคราะห์ได้ด้วยตัวเองมันจึงยากที่จะฉลาดกว่ามนุษย์ 10000 เท่าหรือแม้แต่ฉลาดเท่ามนุษย์ด้วยซ้ำ แต่ AGI เหมือนมนุษย์จริงๆคือมันสามารถทำความเข้าใจเรื่องต่างๆและเรียนรู้ฉลาดขึ้นด้วยตัวเอง คิดอะไรใหม่ๆขึ้นมาด้วยตัวเองโดยไม่ต้องมีข้อมูลป้อนให้เข้าไปแบบ Generative AI

2.Model ขนาดใหญ่เบิ้มแบบที่ GPT-4o Llama3 Gemini 1.5 ใช้นั้นไม่สามารถรันบนการ์ดจอตัวเดียวได้ครับ ที่จริงไม่สามารถรันบรการ์ดจอเล่นเกมส์ได้ด้วยซ้ำแม้แต่ 4090 ก็ตาม โมเดลขนาดใหญ่เป็น 10billion trillon token ต้องรันบนพวก H100 H200 ที่พึ่งออกใหม่นู้นเลยครับ

ถ้าเป็นการ์ดจอ high end แบบ 4090 อาจจะพอรันโมเดลตัวเล็กได้อย่างพวก Gemini Flash, Llama 3 ตัวเล็ก (token น้อย) แต่model เล็กๆได้แค่เรื่อง speed กับประหยัดการคำนวณเฉยๆ แต่มันทำ task ฉลาดๆเท่า model ตัวใหญ่ไม่ได้ ตัดออกไปได้เลยความเป็นไปได้ในอีก 10 ปีที่จะรัน model ตัวใหญ่บนมือถือ smart phone อย่างตัว Apple Intelligence ก็รัน model ตัวติ๊ดเดียวบนเครื่องเพื่องานบางอย่างที่ง่ายๆส่วนงาน complex ยากๆก็ส่งขึ้นประมวลผลบน private datacenter เหมือนเดิม  


หนูไม่ได้เข้าใจอะไรผิดหรอกค่ะ โทษทีไม่ได้กลับมาตอบทันที
อย่าง llm เป็นแบบจำลองทางภาษาที่ใช้หลักการความน่าจะเป็นและสถิติมาตอบ
หากเอาการตอบอย่างมีเหตุผลตรรกะมันจะผิด เพราะเบื้องหลังคือสถิติ

แต่เราสามารถเอาแบบจำลองอื่นๆมาร่วมด้วยได้เช่นพวก Machnine Learning ทั่วไปนี้แหละมีเหตุผลมากๆ และตัวเล็กสุดๆด้วย เพราะพื้นฐานมาจากหลักคณิตศาสตร์ คิดคำนวน

เราสามารถใช้ llm ทำการ Extract feature หรือ Extract information ออกมา แล้วโยนเข้า ML เพื่อทำการคำนวนต่อได้

อย่า GPT-4o ทำไมจะรันใน GPU ตัวเดียวไม่ได้ เขาแค่ไม่เปิดโครงสร้างให้เราดู
OpenAI ใช้ Expert Model หมายถึง ลดความรู้ให้เหลือเฉพาะด้าน ไม่ต้องอ่านหนังสือทั้งหมด โมเดลจะเล็กลง ทำงานได้ไวขึ้น สำหรับการให้บริการ OpenAI ก็เปิดให้มี Expert หลายๆตัว แต่หน้ากากเราไม่รู้ว่าเรากำลังคุยกับตัวไหน

ที่บอกว่า llama 3 รันบน GPU ไม่ได้ก็ไม่ถูกแล้วค่ะ

https://ollama.com/library/llama3
modelarch
llama
·
parameters
8.03B
·
quantization
Q4_0 = 4.7GB

รันบน 4070 ก็ได้

อย่างที่บอกว่าใช้ทรัพยากรเยอะสุดตอนเทรน คือต้องการหนังสือมาให้มันอ่านเยอะที่สุดจึงจำเป็นต้องใช้หน่วยความจำเยอะที่สุดเท่าที่อยากให้มันเรียนรู้ จะกี่พันล้าน แสนล้านคำก็ตาม

สุดท้ายโมเดลจะอยู่ในโครงสร้างเครือข่ายประสาทเทียมที่เตรียมไว้แล้ว ว่าจะเป็นโครงไหน แบบจำลองจะไม่ใหญ่ไปกว่าที่เขาออกแบบไว้ให้ไม่ใหญ่แค่ไหน เพราะถ้าไม่กำหนดขนาดของแบบจำลองไว้ คอมพิวเตอร์ทุกเครื่องคงพังก่อนได้ใช้งาน

เวลาเขียนโปรแกรมยังต้องประกาศตัวแปล และขนาดของตัวแปล เช่นเดียวกันกับ สถาปัตยกรรมของเอไอ ต้องประกาศชั้น โหนดของโครงข่ายประสาทเทียมไว้ แต่ละโหนด เรียกรวมๆกันว่า parameter ซึ่งเก็บค่าน้ำหนักและค่าความเอนเอียงไว้

เช่น llama 3 8b หมายถึงมี 8พันล้านกิ่งตัดสินใจ ทำ quantization 4bit แต่ละกิ่งเก็บค่าข้อมูลตัวเลข 4 bit 2 ตัวแปล เป็น 8bit ก็เท่ากับ 8Gbyte ตอนรัน

สรุปว่า Model สามารถย่อได้ สามารถสกัดข้อมูลออกมา และสามารถคำนวนได้ค่ะ
งานวิจัยพวกนี้ทำมานานแล้ว ที่เราเห็นเขาทำเล่นใหญ่เพราะเขามีคนที่ต้องให้บริการมาก ไม่ได้ใช้งานคนเดียว

 

1.llma 3 มันมีหลายเวอร์ชั่นไอ่ตัวเล็กๆรันได้ใน high end gaming card อย่างที่ผมบอกไปไงแต่มันรัน model ตัวใหญ่ไม่ได้ แถมถึงรันได้ performance ก็ช้ากว่าใช้พวก H100 H200 ไม่ทันกินหรอกครับไม่ใช่ว่าแค่ vram ถึงแล้วจะเอามาใช้งาน production grade ได้นะครับ 4070 cuda core 5พันกว่า tensor 180 เอง H200 x4 เข้าไปเลยครับ ยิ่งเวอร์ชั่นรันบน smart phone คือ model เล็กมากๆๆ ใช้ process พวก task ง่ายๆเท่านั้น ไม่ใกล้เคียงกับคำว่าฉลาด
- ทำได้ด้วยการ Quantization ลดจุดทศนิยมในการคิดลงจาก 16bit เหลือ 4bit โมเดลจะลดลงไปเยอะ
หนูทำใช้งานจริงมาแล้ว 70b quantize4 สมมติคิดเลข 1.1234567890123456 กับ 1.1234 ค่าไม่ต่างกันมาก แต่กิน memory ต่างกันมาก ความผิดพลาดมีได้แต่ไม่ใช่แบบคนละเรื่องกัน

https://www.reddit.com/r/LocalLLaMA/comments/1cj4det/llama_3_70b_instruct_works_surprisingly_well_on/

2.ที่ผมบอกใช้ data center เท่า 2-3 สนามฟุตบอลคือจำลอง processing power ของสมองคนจริงๆครับ (ตอนนี้มีพวก black well แล้วอาจจะไม่ได้ใหญ่เท่า 2-3 สนามแต่ก็ใหญ่อยู่ดี) ซึ่ง processing power สมองคนเรามันไม่ใช่แค่การเติมคำในช่องว่างเหมือน Gen AI ไงครับ มันซับซ้อนกว่านั้นเยอะมากๆ

อย่างที่บอกว่า llm เบื้องหลังคือหลักสถิติมันคำนวนไม่ได้
แต่สามารถใช้สกัดข้อมูลออกมาได้ ดังนั้นไม่ใช่แค่เติมคำ
ต่อมานำข้อมูลที่ได้ โยนเข้า Machine Learning ธรรมดาที่ใช้ทรัพยากรเครื่องน้อย เอาง่ายๆเครื่องคิดเลขไม่ได้กินทรัพยากรเครื่อง


3.อย่างที่ผมบอกว่า Gen AI ผมไม่เห็นว่าจะเอามาฉลาดกว่ามนุษย์ได้เพราะมันถูก feed ข้อมูลที่มนุษย์คิดมาก่อนอยู่แล้วเข้าไป อย่างมากมันก็แค่ใช้ข้อมูลพวกนั้นเพื่อให้คำตอบที่ใกล้เคียงที่สุด ไม่ใช่เพราะมันรู้และเข้าใจคำตอบได้จริงๆ แต่อย่างที่คุณบอกมันเป็นเชิง stat มากกว่า ซึ่งถ้า AI จะฉลาดกว่ามนุษย์ได้ต้องไม่ใช่แค่เติมคำในช่องว่างจากสถิติ มันต้องสามารถเรียนรุ้เองได้ คิดอะไรใหม่ๆเองได้

AI ไม่ได้เก่งกว่าคนที่คิดค้น AI
แต่เก่งกว่าคนทั่วไปที่ไม่ได้คิด AI และมีส่วนมากของประชากรโลกค่ะ
แต่ AI ก็มีหลากหลายตัวช่วยกันทำงานได้ อย่า chatgpt มันทำงานเบื้องหลังอยู่หลายตัว ไม่ใช่แค่ model ภาษาอย่างเดียวค่ะ


 
 
 

เท่าที่ผมอ่านผมว่าเราก็เข้าใจอะไรคล้ายๆกันนะ แต่ผมว่าประเด็นที่่เราเห็นไม่ตรงกันไปคือท่านน่าจะ underesitmate ความสามารถของสมองมุนษย์เกินไป  


ขออภัยนะคะ ตั้งแต่หัวกระทู้ไม่มีการยก Generative AI ขึ้นมา และหนูก็ไม่ได้พูดถึงเฉพาะ Gen AI เพราะการทำงานเบื้องหลังสามารถมีหลายตัวช่วยกันอยู่ได้ แต่หนูขอยืนยันว่ารัน AI ไม่ต้องใช้เครื่องใหญ่ ที่ใหญ่คือตอนเทรนค่ะ

หนูก็อ้างอิงจากข้อมูลที่เผยแพร่ อย่างโมเดลที่ทำโดยคนไทย ยังเก่งกว่าเด็กไทยไปแล้วเลยค่ะ โมเดล 7b เองนะคะ รันบนการ์ดจอได้ ดังนั้นหนูจึงยืนยันว่า ไม่ต้องใช้ data center สำหรับทำงานให้ได้เท่ามนุษย์
 

นั่นแหละคือสิ่งที่เราเห็นไม่ตรงกันครับ คุณใช้การทำข้อสอบที่มีคำตอบ fix อยู่แล้วมา benchmark ความฉลาด ส่วนผมสมองว่าการ benchmark โดยของพวกนั้นไม่มีประโยชน์เลยไม่ได้วัดความฉลาด เหมือนคุณจำคำตอบไว้อยู่แล้ว แต่จริงๆแล้วตัว Model มันไม่ได้เข้าใจคำถามจริงๆ มันรู้ว่านี่คือคำตอบที่น่าจะเป็นเฉยๆ ผมไม่เรียกนี่ว่าฉลาด

คุณบอกไม่ได้เจาะจง Gen AI แต่สิ่งที่คุณเอามาเถียงผมเรื่องขนาด data center เป็นการรัน model Gen AI ทั้งนั้น ผมงง ซึ่งผมก็บอกไว้แล้วถ้าพูดถึง Gen AI ยิ่ง model เล็กยิ่งความสามารถน้อยและเจาะจงมากยิ่งขึ้น ถึงรันบนร smar phone ได้มันก็ไม่ฉลาดกว่ามนุษย์ ตรงนี้คงไม่ต้องเถียงกันแล้ว ต่ให้ Gen AI ฉลาดกว่ามนุษย์ได้จริงๆต้องเป็น model ใหญ่มากๆ ไม่ก็ใช้หลายตัวมากๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆ

ผมว่าผมพูดจัดเจนแล้วนะว่าเวลาผมพูดถึง AI ที่ฉลาดกว่ามนุษย์ผมพูดถึงต้องเป็น AGI ไม่ใช่ Gen AI ด้วยเหตุผลหลายๆอย่างที่ผมอธิบายไปแล้วข้างบนว่าทำไม Gen AI ถึงจะไม่สามารถฉลาดกว่ามนุษย์ได้
แก้ไขล่าสุดโดย MarkZuckerberg เมื่อ Tue Jun 25, 2024 12:08, ทั้งหมด 1 ครั้ง
0
0
หากโดน 40 เรื้อน จะถูกแบน
ออฟไลน์
นักบอล ดิวิชั่น 1
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 11 Feb 2017
ตอบ: 1201
ที่อยู่:
โพสเมื่อ: Tue Jun 25, 2024 13:02
[RE: AIที่ฉลาดกว่าคน10,000เท่าจะเกิดใน10ปี]
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
Spoil
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
themasksocccer พิมพ์ว่า:
MarkZuckerberg พิมพ์ว่า:
โม้จัดๆ ตอนนี้รัน compute power เท่าสมองมนุษย์ก้อนนึงยังต้องใช้ datacenter ใหญ่กว่าสนามฟุตบอล 2-3 สนามอีก

1 หมื่นเท่า 10 ปีผมว่าเป็นไปได้ยากวะ  


ไม่ถึงขนาดนั้นค่ะ
การ์ดจอตัวเดียวก็รันได้แล้ว
อย่าง llama 3, mistral 7b ก็รันบนการ์ดจอเกมธรรมดาได้
ถ้า quantization ก็รันบนมือถือได้แล้ว

ทุกวันนี้ที่ใช้เยอะๆคือตอนเทรนข้อมูล
เพราะแบบจำลองทางภาษาต้องอ่านหนังสือเยอะ
ยิ่งอ่านเยอะก็รู้เยอะ ตรงนี้ที่ต้องใช้เครื่องใหญ่ในการสอน

 

ผมว่าท่านเข้าใจผิดนะตรงนี้ 2 ประเด็น

1.Generative AI ไม่ใช่ AGI มันเป็นเชิง machine learning ในการเติมคำช่องว่างมากกว่า มันไม่ได้มีสัมปัญชัญยะเป็นของตัวเอง มันไม่ได้มีความเข้าใจเนื้อหาหรืออะไรจริงๆเลย เราแค่นำคำตอบที่มีอยู่แล้วมาเทรน model เพราะฉะนั้นมันไม่สามารถฉลาดขึ้นเองได้หรือคิดวิเคราะห์ได้ด้วยตัวเองมันจึงยากที่จะฉลาดกว่ามนุษย์ 10000 เท่าหรือแม้แต่ฉลาดเท่ามนุษย์ด้วยซ้ำ แต่ AGI เหมือนมนุษย์จริงๆคือมันสามารถทำความเข้าใจเรื่องต่างๆและเรียนรู้ฉลาดขึ้นด้วยตัวเอง คิดอะไรใหม่ๆขึ้นมาด้วยตัวเองโดยไม่ต้องมีข้อมูลป้อนให้เข้าไปแบบ Generative AI

2.Model ขนาดใหญ่เบิ้มแบบที่ GPT-4o Llama3 Gemini 1.5 ใช้นั้นไม่สามารถรันบนการ์ดจอตัวเดียวได้ครับ ที่จริงไม่สามารถรันบรการ์ดจอเล่นเกมส์ได้ด้วยซ้ำแม้แต่ 4090 ก็ตาม โมเดลขนาดใหญ่เป็น 10billion trillon token ต้องรันบนพวก H100 H200 ที่พึ่งออกใหม่นู้นเลยครับ

ถ้าเป็นการ์ดจอ high end แบบ 4090 อาจจะพอรันโมเดลตัวเล็กได้อย่างพวก Gemini Flash, Llama 3 ตัวเล็ก (token น้อย) แต่model เล็กๆได้แค่เรื่อง speed กับประหยัดการคำนวณเฉยๆ แต่มันทำ task ฉลาดๆเท่า model ตัวใหญ่ไม่ได้ ตัดออกไปได้เลยความเป็นไปได้ในอีก 10 ปีที่จะรัน model ตัวใหญ่บนมือถือ smart phone อย่างตัว Apple Intelligence ก็รัน model ตัวติ๊ดเดียวบนเครื่องเพื่องานบางอย่างที่ง่ายๆส่วนงาน complex ยากๆก็ส่งขึ้นประมวลผลบน private datacenter เหมือนเดิม  


หนูไม่ได้เข้าใจอะไรผิดหรอกค่ะ โทษทีไม่ได้กลับมาตอบทันที
อย่าง llm เป็นแบบจำลองทางภาษาที่ใช้หลักการความน่าจะเป็นและสถิติมาตอบ
หากเอาการตอบอย่างมีเหตุผลตรรกะมันจะผิด เพราะเบื้องหลังคือสถิติ

แต่เราสามารถเอาแบบจำลองอื่นๆมาร่วมด้วยได้เช่นพวก Machnine Learning ทั่วไปนี้แหละมีเหตุผลมากๆ และตัวเล็กสุดๆด้วย เพราะพื้นฐานมาจากหลักคณิตศาสตร์ คิดคำนวน

เราสามารถใช้ llm ทำการ Extract feature หรือ Extract information ออกมา แล้วโยนเข้า ML เพื่อทำการคำนวนต่อได้

อย่า GPT-4o ทำไมจะรันใน GPU ตัวเดียวไม่ได้ เขาแค่ไม่เปิดโครงสร้างให้เราดู
OpenAI ใช้ Expert Model หมายถึง ลดความรู้ให้เหลือเฉพาะด้าน ไม่ต้องอ่านหนังสือทั้งหมด โมเดลจะเล็กลง ทำงานได้ไวขึ้น สำหรับการให้บริการ OpenAI ก็เปิดให้มี Expert หลายๆตัว แต่หน้ากากเราไม่รู้ว่าเรากำลังคุยกับตัวไหน

ที่บอกว่า llama 3 รันบน GPU ไม่ได้ก็ไม่ถูกแล้วค่ะ

https://ollama.com/library/llama3
modelarch
llama
·
parameters
8.03B
·
quantization
Q4_0 = 4.7GB

รันบน 4070 ก็ได้

อย่างที่บอกว่าใช้ทรัพยากรเยอะสุดตอนเทรน คือต้องการหนังสือมาให้มันอ่านเยอะที่สุดจึงจำเป็นต้องใช้หน่วยความจำเยอะที่สุดเท่าที่อยากให้มันเรียนรู้ จะกี่พันล้าน แสนล้านคำก็ตาม

สุดท้ายโมเดลจะอยู่ในโครงสร้างเครือข่ายประสาทเทียมที่เตรียมไว้แล้ว ว่าจะเป็นโครงไหน แบบจำลองจะไม่ใหญ่ไปกว่าที่เขาออกแบบไว้ให้ไม่ใหญ่แค่ไหน เพราะถ้าไม่กำหนดขนาดของแบบจำลองไว้ คอมพิวเตอร์ทุกเครื่องคงพังก่อนได้ใช้งาน

เวลาเขียนโปรแกรมยังต้องประกาศตัวแปล และขนาดของตัวแปล เช่นเดียวกันกับ สถาปัตยกรรมของเอไอ ต้องประกาศชั้น โหนดของโครงข่ายประสาทเทียมไว้ แต่ละโหนด เรียกรวมๆกันว่า parameter ซึ่งเก็บค่าน้ำหนักและค่าความเอนเอียงไว้

เช่น llama 3 8b หมายถึงมี 8พันล้านกิ่งตัดสินใจ ทำ quantization 4bit แต่ละกิ่งเก็บค่าข้อมูลตัวเลข 4 bit 2 ตัวแปล เป็น 8bit ก็เท่ากับ 8Gbyte ตอนรัน

สรุปว่า Model สามารถย่อได้ สามารถสกัดข้อมูลออกมา และสามารถคำนวนได้ค่ะ
งานวิจัยพวกนี้ทำมานานแล้ว ที่เราเห็นเขาทำเล่นใหญ่เพราะเขามีคนที่ต้องให้บริการมาก ไม่ได้ใช้งานคนเดียว

 

1.llma 3 มันมีหลายเวอร์ชั่นไอ่ตัวเล็กๆรันได้ใน high end gaming card อย่างที่ผมบอกไปไงแต่มันรัน model ตัวใหญ่ไม่ได้ แถมถึงรันได้ performance ก็ช้ากว่าใช้พวก H100 H200 ไม่ทันกินหรอกครับไม่ใช่ว่าแค่ vram ถึงแล้วจะเอามาใช้งาน production grade ได้นะครับ 4070 cuda core 5พันกว่า tensor 180 เอง H200 x4 เข้าไปเลยครับ ยิ่งเวอร์ชั่นรันบน smart phone คือ model เล็กมากๆๆ ใช้ process พวก task ง่ายๆเท่านั้น ไม่ใกล้เคียงกับคำว่าฉลาด
- ทำได้ด้วยการ Quantization ลดจุดทศนิยมในการคิดลงจาก 16bit เหลือ 4bit โมเดลจะลดลงไปเยอะ
หนูทำใช้งานจริงมาแล้ว 70b quantize4 สมมติคิดเลข 1.1234567890123456 กับ 1.1234 ค่าไม่ต่างกันมาก แต่กิน memory ต่างกันมาก ความผิดพลาดมีได้แต่ไม่ใช่แบบคนละเรื่องกัน

https://www.reddit.com/r/LocalLLaMA/comments/1cj4det/llama_3_70b_instruct_works_surprisingly_well_on/

2.ที่ผมบอกใช้ data center เท่า 2-3 สนามฟุตบอลคือจำลอง processing power ของสมองคนจริงๆครับ (ตอนนี้มีพวก black well แล้วอาจจะไม่ได้ใหญ่เท่า 2-3 สนามแต่ก็ใหญ่อยู่ดี) ซึ่ง processing power สมองคนเรามันไม่ใช่แค่การเติมคำในช่องว่างเหมือน Gen AI ไงครับ มันซับซ้อนกว่านั้นเยอะมากๆ

อย่างที่บอกว่า llm เบื้องหลังคือหลักสถิติมันคำนวนไม่ได้
แต่สามารถใช้สกัดข้อมูลออกมาได้ ดังนั้นไม่ใช่แค่เติมคำ
ต่อมานำข้อมูลที่ได้ โยนเข้า Machine Learning ธรรมดาที่ใช้ทรัพยากรเครื่องน้อย เอาง่ายๆเครื่องคิดเลขไม่ได้กินทรัพยากรเครื่อง


3.อย่างที่ผมบอกว่า Gen AI ผมไม่เห็นว่าจะเอามาฉลาดกว่ามนุษย์ได้เพราะมันถูก feed ข้อมูลที่มนุษย์คิดมาก่อนอยู่แล้วเข้าไป อย่างมากมันก็แค่ใช้ข้อมูลพวกนั้นเพื่อให้คำตอบที่ใกล้เคียงที่สุด ไม่ใช่เพราะมันรู้และเข้าใจคำตอบได้จริงๆ แต่อย่างที่คุณบอกมันเป็นเชิง stat มากกว่า ซึ่งถ้า AI จะฉลาดกว่ามนุษย์ได้ต้องไม่ใช่แค่เติมคำในช่องว่างจากสถิติ มันต้องสามารถเรียนรุ้เองได้ คิดอะไรใหม่ๆเองได้

AI ไม่ได้เก่งกว่าคนที่คิดค้น AI
แต่เก่งกว่าคนทั่วไปที่ไม่ได้คิด AI และมีส่วนมากของประชากรโลกค่ะ
แต่ AI ก็มีหลากหลายตัวช่วยกันทำงานได้ อย่า chatgpt มันทำงานเบื้องหลังอยู่หลายตัว ไม่ใช่แค่ model ภาษาอย่างเดียวค่ะ


 
 
 

เท่าที่ผมอ่านผมว่าเราก็เข้าใจอะไรคล้ายๆกันนะ แต่ผมว่าประเด็นที่่เราเห็นไม่ตรงกันไปคือท่านน่าจะ underesitmate ความสามารถของสมองมุนษย์เกินไป  


ขออภัยนะคะ ตั้งแต่หัวกระทู้ไม่มีการยก Generative AI ขึ้นมา และหนูก็ไม่ได้พูดถึงเฉพาะ Gen AI เพราะการทำงานเบื้องหลังสามารถมีหลายตัวช่วยกันอยู่ได้ แต่หนูขอยืนยันว่ารัน AI ไม่ต้องใช้เครื่องใหญ่ ที่ใหญ่คือตอนเทรนค่ะ

หนูก็อ้างอิงจากข้อมูลที่เผยแพร่ อย่างโมเดลที่ทำโดยคนไทย ยังเก่งกว่าเด็กไทยไปแล้วเลยค่ะ โมเดล 7b เองนะคะ รันบนการ์ดจอได้ ดังนั้นหนูจึงยืนยันว่า ไม่ต้องใช้ data center สำหรับทำงานให้ได้เท่ามนุษย์
 

นั่นแหละคือสิ่งที่เราเห็นไม่ตรงกันครับ คุณใช้การทำข้อสอบที่มีคำตอบ fix อยู่แล้วมา benchmark ความฉลาด ส่วนผมสมองว่าการ benchmark โดยของพวกนั้นไม่มีประโยชน์เลยไม่ได้วัดความฉลาด เหมือนคุณจำคำตอบไว้อยู่แล้ว แต่จริงๆแล้วตัว Model มันไม่ได้เข้าใจคำถามจริงๆ มันรู้ว่านี่คือคำตอบที่น่าจะเป็นเฉยๆ ผมไม่เรียกนี่ว่าฉลาด

คุณบอกไม่ได้เจาะจง Gen AI แต่สิ่งที่คุณเอามาเถียงผมเรื่องขนาด data center เป็นการรัน model Gen AI ทั้งนั้น ผมงง ซึ่งผมก็บอกไว้แล้วถ้าพูดถึง Gen AI ยิ่ง model เล็กยิ่งความสามารถน้อยและเจาะจงมากยิ่งขึ้น ถึงรันบนร smar phone ได้มันก็ไม่ฉลาดกว่ามนุษย์ ตรงนี้คงไม่ต้องเถียงกันแล้ว ต่ให้ Gen AI ฉลาดกว่ามนุษย์ได้จริงๆต้องเป็น model ใหญ่มากๆ ไม่ก็ใช้หลายตัวมากๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆ

ผมว่าผมพูดจัดเจนแล้วนะว่าเวลาผมพูดถึง AI ที่ฉลาดกว่ามนุษย์ผมพูดถึงต้องเป็น AGI ไม่ใช่ Gen AI ด้วยเหตุผลหลายๆอย่างที่ผมอธิบายไปแล้วข้างบนว่าทำไม Gen AI ถึงจะไม่สามารถฉลาดกว่ามนุษย์ได้  


AGI มันไม่มีจริงๆไงคะ แต่ไม่ได้หมายความว่ามันไม่ได้ฉลาดจริง
ความจริงคือ Multimodal AI คือมันทำงานร่วมกันต่อเนื่องกัน
เหมือนการเขียนโปรแกรมทั่วไปที่มีการไหลของข้อมูลไปทีละลำดับขั้นตอน
แต่การเขียนโปรแกรมนี้มนุษย์ไม่ได้เขียนเอง

เป็น AI มาเขียนว่า ข้อมูลแบบไหน ต้องใช้ Model ไหนตอบ
ได้ข้อมูลมาก็ไหล ไป Model อื่นๆ ไปจนกระทั้งได้ผลลัพธ์ออกไป

ไม่นับเรื่องการสร้างสรรค์หรืองานวิจัย AI มันสามารถคิดเล็กคิดน้อยได้ทั้งหมดที่คนไม่สนใจจนเกิดเป็นข้อมูล Insight ได้ ซึ่งคนต้องใช้เวลามากกว่ามันหลายพันหรือหลายล้านเท่ากว่าจะหาได้

ยืนยันคำเติมค่ะว่า AI ไม่ต้องรันบน data center ไม่ต้องเชื่อก็ได้ค่ะ
Generative AI มันตั้งอยู่บน LLM ซึ่งมันมีขนาดใหญ่ และใหญ่ที่สุดแล้ว
Model รูปภาพ การจำแนก การรู้จำ ต่างๆไม่ได้ใช้ทรัพยากรเยอะขนาดนั้น สามารถทำงานบน cpu ได้ด้วย อย่างระบบบัตรจอดรถตามห้างไม่ต้องใช้ถึง PC เอาแค่ arduino board ก็ติดตั้งใช้งานได้แล้ว AI อ่านป้ายทะเบียนไม่ต้องถึงกับรันอยู่บน data center แน่ๆ

หนูไม่รู้หรอกนะว่าทำไมคุณถึงติดภาพว่าต้องใช้คอมพิวเตอร์ขนาดใหญ่เท่านั้นในการรัน ซึ่งมันคือโครงส้รางโปรแกรมอันหนึ่งเท่านั้น จะทำใหญ่เล็กก็ได้ เพื่อการคำนวนก็ใช้ hardware มาช่วย

สรุปนะคะ ถ้าไม่เชื่อรบกวนหาข้อมูลมาแปะก็ได้คะว่าทำบน Local PC ไม่ได้เพราะเหตุผลอะไร
เพราะหนูยืนยันคำเดิมว่าแม้แต่ LLM ก็รันบน GPU ได้ แต่ถ้าทำ Quantization แล้วจะลงไปอยู่บนมือถือได้ แต่ถ้ายังยืนยันว่าแค่ Generative AI ต้องรันบน data center เท่านั้นรบกวนแสดงข้อมูลให้ทีค่ะ

สมัยก่อนยังไม่มี llm ก็รันบนเครื่องธรรมดากันได้หมด
พอ llm มามันแค่บริโภคข้อมูลเยอะก็เลยต้องใช้เครื่องจำนวนเยอะสอน
พอสอนเสร็จได้โครงของโปรแกรมมา ก็ใช้ model นั้นแหละอันไม่ใหญ่

อันนี้หนูแปะของฝรั่ง หนูชี้ไปด้วยข้อมูลเป็น ตัวเลขให้แล้วก่อนหน้านี้ว่าสามารถคำนวนได้ ไม่ใช่เอะอะยัด data center
https://www.reddit.com/r/LocalLLaMA/comments/1cj4det/llama_3_70b_instruct_works_surprisingly_well_on/

หนูขอแปะของไทย





0
0
หากโดน 40 เรื้อน จะถูกแบน
contactme themasksoccer@gmail.com
ไปหน้าที่ 1, 2, 3
ไปที่หน้า
GO
ตั้งกระทู้ใหม่
กรุณาระบุเหตุผลที่จะแจ้งความ
ผู้ต้องหา:
ข้อความ:
Submit
Cancel
กรุณาเลือก Forum และ ประเภทกระทู้
Forum:

ประเภท:
Submit
Cancel