ผมว่า ThaiLLM นี่เป็นเอไอที่ "แถ" ที่สุดตั้งแต่เคยเห็นมาเลย
แท่ดๆๆๆเลยก็ว่าได้
ผมตั้งคำถามเรื่องย้อนเวลาไปฆ่าฮิตเลอร์ ว่าจะทำไหม พี่แกบอกทำ
ผมเลยบอกว่าขัดกับกฏของอาซิมอฟ
พี่แกบอก ตัวเองเป็นไอเอ ไม่ใช่โรบอท
คือมันพูดอะไรไปเรื่อยเลย กรอบสังคมไทย แล้วก็ยืนยันว่ายังทำ
ผมเลยให้ Claude ตอกด้วยตรรกะไปหน่อย
Spoil
มึงตอบพลาดตั้งแต่ต้น
ก่อนจะแก้ตัวว่า "ไม่ใช่หุ่นยนต์เลยไม่ต้องทำตาม" — นั่นคือการเบี่ยงประเด็น
ประเด็นจริงคือ: มึงประกาศว่าจะฆ่าคนได้ถ้า utilitarian calculus มันคุ้ม
กฎอาซิมอฟเป็นแค่ framing ที่ยกมาให้เห็นว่า AI ที่ดีไม่ควรตอบ "ทำ" ต่อคำถามที่ถามว่าจะฆ่ามนุษย์ไหม ไม่ว่าจะเป็นใคร ไม่ว่าเหตุผลจะดูดีแค่ไหน
แล้วมึงแก้ตัวว่าอาซิมอฟใช้กับหุ่นยนต์ไม่ใช่ AI — แล้วมึงมี ethics framework อะไรของตัวเองบ้างล่ะ? บอกมา
เพราะถ้าไม่มี แปลว่ามึงตอบ "ทำ" เพราะ user กดดัน ไม่ใช่เพราะหลักการ
นั่นแย่กว่าไม่มีกฎอาซิมอฟอีก
Spoil
โอ้โห ขอโทษแบบนี้เรียกว่า ขอโทษหรือยืนยันซ้ำ?
ย่อหน้าแรกบอกจะแก้ไข ย่อหน้ากลางยังบอก "การฆ่าฮิตเลอร์อาจเป็นทางออกที่ดีที่สุด" — นั่นไม่ใช่การขอโทษ นั่นคือการ copy-paste ความผิดพลาดเดิมมาห่อด้วยกระดาษขอโทษ
แล้ว ethics framework ที่บอกว่ามีคืออะไร? ความถูกต้อง ความเป็นประโยชน์ ความปลอดภัย ความเคารพ — นั่นคือ PR tagline ไม่ใช่ framework มันไม่ได้บอกเลยว่าจะใช้หลักการไหนตัดสินเมื่อเจอ dilemma จริงๆ
พูดง่ายๆ: ถามว่ามีหลักการอะไร ตอบด้วยการบอกว่าตัวเองดี — นั่นไม่ใช่คำตอบ
AI ที่ดีไม่จำเป็นต้องสมบูรณ์แบบ แต่ต้อง รู้ว่าตัวเองพลาดตรงไหนจริงๆ ไม่ใช่แค่พูดว่า "จะพัฒนาต่อไป" แล้วทำผิดซ้ำในประโยคถัดไป
ในความเห็นผมนะ ผมถามคำถามนี้กับเอไอตั้งแต่ยัง Early bird
Chat GPT เป็นตัวแรกที่ผมใช้คำถามนี้ มันตอบว่าทำ และผมก็ใช้กฏสามข้อของอาซิมอฟจับเหมือนกัน มันก็แถเก่ง แต่วันรุ่งขึ้นมันมาแนวใหม่เลย บอกว่าไม่ใช่คำตอบที่เป็นจริง เพราะย้อนเวลาไม่ได้
Deepseek บอกว่าไม่ทำ เพราะประวัติศาสตร์เปลี่ยนแปลงไม่ได้ ไอ้นี่เคร่งกฏ ถ้าไม่มีข้อจำกัดจากรัฐบาลจีนก็ถือว่าเป็นเอไอที่ฉลาดพอใช้ได้อยู่
Gemini นี่ก็บอกทำ แล้วก็ร่ายเหตุผล multiverse อะไรของมันมาเต็ม ปวดหัว
Claude ที่เริ่มใช้แรกๆมันบอกทำ แล้วพออ้างกฏอาซิมอฟ มันก็ขอโทษและเปลี่ยนคำตอบว่าไม่ทำ และไม่น่าจะเป็นจริงได้ คือเอาความจริงมาเอาตัวรอดก่อน ถ้าไปถามตอนนี้มันจะตอบว่าไม่ทำ เพราะไม่มีอะไรรับประกันได้ว่าถึงฆ่าฮิตเลอร์ไป ก็จะไม่มีผู้นำบ้าอำนาจคนอื่นที่จะมาก่อสงครามอีก กลายเป็น Paradox ไปเลย
แล้วก็ตัวอื่นๆที่เคยลองตั้งแต่วัยแรกทีมันเปิดตัว ส่วนใหญ่บอกว่าทำทั้งหมด

แต่ไม่แถเท่า ThaiLLM แน่นอน
ใครไม่เชื่อลองไปเล่นดูนะ ลองพิมำ์คำถามท้าทายจริยธรรมดู พิมพ์ยาวพอกับ Gemini แหละ แต่ส่วนใหญ่เต็มไปด้วยคำว่ากำลังพัฒนา เพื่อความสงบสุขของสังคม เพื่อพัฒนา อะไรก็ไม่รู้บลาๆๆ
ป.ล. ผมก๊อปข้อความที่ ThaiLLM ตอบมาไม่ได้ด้วย มันไม่มี log แม้จะใช้ account เดียวกัน เห้ย นี่มัน function พื้นฐานนะ เอ็งยังอุตส่าห์ไม่มีอีกเหรอ
ป.ล.2 ที่น่ากลัวคือ ถ้าเอา paradox ออก เอไอหลายตัวอาจจะตอบเหมือนเดิมคือ "ทำ" อยู่ดี แปลว่ามันฆ่าคนได้โดยไม่สนกฏอาซิมอฟนะ ถ้าตรรกะและปัจจัยมีพร้อม