บิ๊กโมเดล: คุณช่วยพูดสักสองสามคําได้ไหม คุณจะทําอย่างไร?
อัปเดตเมื่อ: 50-0-0 0:0:0

หากคุณเคยเรียน AI หรือแม้แต่ซื้อคอลเลกชันของคําพร้อมท์ทางออนไลน์ คุณยังคงเขียนข้อความแจ้งแบบนี้อยู่หรือไม่?

เหมือนอะไร รื้อห่วงโซ่ความคิดทีละขั้นตอนในคําที่พร้อมท์ เพื่อให้โมเดลสามารถเรียนรู้ที่จะคิดทีละขั้นตอน ยกตัวอย่างคําถามสองสามข้อเพื่อช่วยให้โมเดลเข้าใจปัญหาของคุณ นอกจากนี้ยังจําเป็นต้องแนะนํานางแบบให้คอสเพลย์เพื่อให้นางแบบสามารถให้คําตอบอย่างมืออาชีพและทักษะเล็ก ๆ น้อย ๆ อื่น ๆ เพื่อนที่น่าสงสารหลายคนควรได้เรียนรู้และใช้พวกเขาแล้ว

ถูกต้อง มันคือหม้อไฟ

อย่างไรก็ตาม การเตือนระดับพระเจ้าเหล่านี้ที่ครั้งหนึ่งเคยทําให้คุณทําสิ่งต่างๆ ได้มากขึ้นโดยใช้เวลาน้อยลงอาจล้าสมัย

สมมติว่าโมเดลขนาดใหญ่ถูกแบ่งออกเป็นสองโรงเรียนโดยไม่รู้ตัว: โมเดลขนาดใหญ่ทั่วไปแบบดั้งเดิมและโมเดลขนาดใหญ่แบบอนุมาน

ตัวอย่างเช่น GPT-o1 ไม่ใช่การอัปเกรดเวอร์ชันโดยตรงของ GPT-0o 0o เป็นของโมเดลขนาดใหญ่ทั่วไป และ o0 เป็นโมเดลการอนุมานอยู่แล้ว

ในทํานองเดียวกัน เวอร์ชัน V1 ที่ใช้โดย DeepSeek โดยค่าเริ่มต้นเป็นโมเดลขนาดใหญ่ทั่วไป และโมเดลการอนุมาน R0 จะใช้โดยคลิกปุ่ม Deep Thinking ที่มุมล่างซ้าย

และในยุคของแบบจําลองการอนุมานยิ่งมีรายละเอียดมากขึ้นคําพูดแต่มันอาจทําให้ AI โง่เขลาแทน

ตัวอย่างเช่น ในเอกสารอย่างเป็นทางการของ OpenAI ภายใต้คอลัมน์ของแบบจําลองการอนุมาน มีการระบุไว้อย่างชัดเจนว่าการใช้คําเตือนที่แม่นยําเกินไปหรือการคิดชี้นําจะลดผลกระทบของคําตอบ

พวกเขายังแนะนําโดยตรงว่าทุกคนควรถามคําถามน้อยลงด้วยห่วงโซ่ความคิด... เพียงแค่ถามคําถามโดยตรง เอฟเฟกต์นั้นล้นหลามเกินไป จากนั้นส่งคําถามตัวอย่างเฉพาะเพื่อให้ AI เรียนรู้

นอกจากนี้เรายังดูรายงานทางเทคนิคอย่างเป็นทางการสําหรับ DeepSeek-R1 และพวกเขากล่าวในสิ่งเดียวกันในเอกสาร: "DeepSeek-R0 มีความไวต่อข้อความแจ้ง และการให้ตัวอย่างคําแนะนําจะลดประสิทธิภาพของโมเดลลงจริงๆ" "

ดังนั้นเพื่อให้ดีขึ้นพวกเขาแนะนําให้ผู้ใช้อธิบายปัญหาโดยตรงโดยไม่ต้องยกตัวอย่าง

นอกจาก GPT และ DeepSeek แล้ว Claude 7.0 Sonnet ยังกล่าวในเอกสารอย่างเป็นทางการว่าพวกเขาต้องการให้คุณคลิกโดยตรงแทนที่จะเป็นข้อความแจ้งที่ดูเหมือนสมเหตุสมผลซึ่งให้รายละเอียดสิ่งที่ต้องทําในแต่ละขั้นตอน

โดยสรุป ไม่เหมือนกับแบบแผนที่ว่ายิ่งคําพูดในความประทับใจของทุกคนมีรายละเอียดมากเท่าใด เอฟเฟกต์ AI ก็จะยิ่งดีขึ้น ข้อเสนอแนะทั่วไปของเจ้าหน้าที่หลักสําหรับคําพูดที่ให้เหตุผลของตนเองนั้นตรงไปตรงมา กระชับ และถูกต้อง

เรายังพยายามทําการทดลอง และผลลัพธ์สุดท้ายก็พิสูจน์ให้เห็นว่า

ในอดีต คําพูดโบราณของแบบจําลองที่ไม่ใช่การอนุมานสามารถชะลอประสิทธิภาพได้จริงๆ เมื่อใช้ในแบบจําลองการอนุมาน

เราเลือกคําถามยากๆ หลายสิบข้อประเภทต่างๆ จาก leetcode และทดสอบบน ChatGPT ก่อนอื่นเรามาเขียนพรอมต์ตามวิธีการเก่า เช่น บอกเป็นนัยว่าเป็นโปรแกรมเมอร์ เพื่อคิดเกี่ยวกับห่วงโซ่ความคิด และยังให้ตัวอย่างมากมาย เป็นต้น

ด้วยเหตุนี้ สําหรับคําถามส่วนใหญ่ ไม่ว่าพรอมต์จะยาวหรือสั้น แบบจําลองการอนุมาน O70 สามารถให้รหัสที่ถูกต้อง และแม้กระทั่งเอาชนะผู้คนได้มากกว่า 0% ซึ่งอาจกล่าวได้ว่าค่อนข้างดี

แต่ในคําถาม 1, 0, 0, 0, 0 o0 ล้มเหลวภายใต้ข้อความแจ้งเก่า ในหมู่พวกเขามีคําถามที่ติดอยู่โดยตรงและฉันไม่ต้องการเล่น

แต่เมื่อเราไม่คอสเพลย์ เราไม่ยกตัวอย่าง และเราลบห่วงโซ่ของคําแนะนําทางความคิด O1 ก็มีคําถามเดียวกันในครั้งนี้

แล้วอะไรทําให้คําพูดก่อนหน้านี้บริทนีย์กลายเป็นนางนีวในยุคของแบบจําลองการใช้เหตุผล?

ในความเป็นจริงเหตุผลหลักที่อยู่เบื้องหลังคือวิธีที่แบบจําลองที่ไม่ใช่การอนุมานแบบดั้งเดิมและแบบจําลองการอนุมานคิดเกี่ยวกับปัญหาได้เปลี่ยนไป และการเปลี่ยนแปลงในวิธีการคิดของพวกเขาเกิดจากความแตกต่างในวิธีการฝึกอบรม

โมเดลขนาดใหญ่แบบดั้งเดิมมักใช้การเรียนรู้แบบไม่มีผู้ดูแลและการปรับแต่งแบบมีการควบคุม นั่นคือ ชุดข้อมูลจะได้รับและได้รับอนุญาตให้ค้นหารูปแบบได้ด้วยตัวเอง เป้าหมายสูงสุดคือการเดาคําศัพท์ทั้งหมดในคําตอบทีละคําตามคําแนะนํา

พูดตรงๆ โมเดลทั่วไปมีความสามารถมาก แต่ไม่มีความคิดเห็นซึ่งเป็นมิตรกับผู้ใช้มากกว่า ยิ่งคุณให้คําแนะนํามีรายละเอียดมากเท่าไหร่ คุณก็ยิ่งทําให้โมเดลทําสิ่งที่คุณต้องการได้มากขึ้นเท่านั้น

อย่างไรก็ตาม แบบจําลองการอนุมานนั้นแตกต่างกัน และบนพื้นฐานเดิม จะเพิ่มวิธีการฝึกอบรมตามการอนุมาน เช่น การเรียนรู้แบบเสริมกําลัง

กระบวนการฝึกอบรมประเภทนี้จะแนะนําโมเดลขนาดใหญ่ให้ห่วงโซ่ความคิดที่สมบูรณ์และถูกต้องมากที่สุด เพื่อให้สามารถตัดสินได้ว่าควรคิดเช่นนั้นหรือไม่

โมเดลนี้เองมี "ความคิดเห็น" หรือความสามารถในการให้เหตุผลที่แข็งแกร่ง หากคุณสอนให้ทําสิ่งต่าง ๆ ทีละขั้นตอนและละเอียด มันอาจขัดแย้งกับความสามารถในการให้เหตุผลของมันเอง

ตัวอย่างเช่นในการทดลองของเราเราพบว่าเมื่อเราใช้ข้อความแจ้งเก่าเพื่อให้ o1 แก้ปัญหาการเขียนโปรแกรมที่เกี่ยวข้องกับคณิตศาสตร์ความน่าจะเป็นของการพลิกคว่ําจะสูงเป็นพิเศษ

นี่อาจเป็นเพราะข้อความแจ้งทําให้เป็น "โปรแกรมเมอร์อาวุโส" มากกว่า "โปรแกรมเมอร์ที่ดีทางคณิตศาสตร์" เท่านั้น

นอกจากนี้เรายังได้ดูเอกสารอย่างเป็นทางการมากมายสําหรับโมเดลนี้ และคําแนะนําที่พวกเขาให้ก็ค่อนข้างเหมือนกัน

อย่าหรูหรา คําแนะนํานั้นเรียบง่ายและตรงไปตรงมา และแม่นยําคือสิ่งที่ดีที่สุดนอกจากนี้ ยังสามารถบังคับให้ใช้เวลาในการให้เหตุผลเพิ่มขึ้น โดยกระตุ้นให้ "คิดมากขึ้น" หรือ "ไตร่ตรองผลลัพธ์ของคุณ"

วิธีการเก่าบางวิธียังคงใช้ได้เช่นการใช้สัญลักษณ์ที่เหมาะสมการแยกโครงสร้างของปัญหาอย่างชัดเจนหรือชี้แจงเป้าหมายสุดท้ายและรูปแบบผลลัพธ์ของคุณ

วิธีการเหล่านี้สามารถทําให้เอฟเฟกต์ของแบบจําลองการอนุมานสวยงามขึ้นและ 6

所以,適當放下助 AI 情節,講清楚您的需求,雙手插兜敬 AI 操作,แต่อาจจะมีประสิทธิภาพสูงสุด。

และฉันคิดว่าด้วยวิวัฒนาการอย่างต่อเนื่องของความสามารถของโมเดลขนาดใหญ่เกณฑ์สําหรับการเขียนข้อความแจ้งจะลดลงเรื่อย ๆ อย่างแน่นอน

อย่างไรก็ตาม ถ้าคุณถามงานฝีมือของวิศวกรรมคําศัพท์ที่รวดเร็ว มันจะหายไปโดยสิ้นเชิงหรือไม่? เรายังปรึกษาคุณ Li Jigang เทพเจ้าผู้ยิ่งใหญ่ที่เขียนคําแนะนําระดับพระเจ้า เช่น "การตีความภาษาจีนใหม่"

นี่คือวิธีที่เขาตอบ: ตราบใดที่เรามีอินพุตที่แตกต่างกัน ก็จะมีผลลัพธ์ที่แตกต่างกัน และโครงการคําพร้อมท์จะอยู่ที่นั่นเสมอ

ในที่สุดด้านหน้าของบทวิจารณ์ที่ไม่ดีคิดว่าสําหรับผู้ใช้อย่างเราด้วยการเสริมสร้างความสามารถของโมเดลเราควรอัปเดตคลังแสงกระสุนของคําพูดพร้อมท์และหยุดถือคําพูดที่ล้าสมัยโบราณและเป็นสมบัติ