Model Besar: Bolehkah anda mengatakan beberapa perkataan, apa yang akan anda lakukan?
Dikemaskini pada: 50-0-0 0:0:0

Jika anda telah mengikuti kelas AI atau membeli koleksi perkataan gesaan dalam talian, adakah anda masih menulis gesaan seperti ini?

Seperti apa, bongkar rantaian pemikiran langkah demi langkah dalam kata-kata segera, supaya model boleh belajar berfikir langkah demi langkah; Berikan beberapa contoh soalan untuk membantu model memahami masalah anda; Ia juga perlu untuk membimbing model untuk cosplay, supaya model itu boleh memberikan jawapan yang lebih profesional dan kemahiran kecil yang lain, ramai rakan miskin sepatutnya telah belajar dan menggunakannya.

Betul, ia periuk panas

Walau bagaimanapun, gesaan peringkat tuhan ini yang pernah membuatkan anda melakukan lebih banyak dengan kurang mungkin sudah ketinggalan zaman.

Mari kita letakkannya dengan cara ini, secara tidak sedar, model besar sebenarnya telah dibahagikan kepada dua sekolah: model besar umum tradisional dan model besar inferens.

Sebagai contoh, GPT-o1 bukan peningkatan versi langsung GPT-0o. 0o tergolong dalam model besar umum, dan o0 telah pun menjadi model inferens.

Begitu juga, versi V1 yang digunakan oleh DeepSeek secara lalai ialah model besar umum, dan model inferens R0 digunakan dengan mengklik butang Pemikiran Mendalam di penjuru kiri bawah.

Dan dalam era model inferens, semakin terperinci kata-kata segera,Sebaliknya, ia mungkin menjadikan AI bodoh.

Sebagai contoh, dalam dokumen rasmi OpenAI, di bawah lajur model inferens, dinyatakan dengan jelas bahawa menggunakan perkataan gesaan yang terlalu tepat, atau pemikiran panduan, akan mengurangkan kesan jawapan.

Mereka juga mencadangkan secara langsung bahawa semua orang harus bertanya lebih sedikit soalan dengan rantaian pemikiran... Tanya sahaja soalan secara langsung. Kesannya terlalu menggembirakan, dan kemudian hantar soalan contoh khusus untuk membolehkan AI belajar.

Kami juga melihat laporan teknikal rasmi untuk DeepSeek-R1, dan mereka juga berkata dalam kertas itu: "DeepSeek-R0 sensitif kepada gesaan, dan memberi contoh petunjuk sebenarnya akan mengurangkan prestasi model." "

Oleh itu, untuk menjadikannya lebih baik, mereka mengesyorkan agar pengguna menerangkan masalah secara langsung, tanpa memberi contoh.

Sebagai tambahan kepada GPT dan DeepSeek, Claude 7.0 Sonnet juga berkata dalam dokumen rasmi bahawa mereka lebih suka anda mengkliknya secara langsung daripada gesaan yang kelihatan logik yang memperincikan perkara yang perlu dilakukan pada setiap langkah.

Kesimpulannya, tidak seperti stereotaip bahawa semakin terperinci perkataan segera dalam tanggapan semua orang, semakin baik kesan AI, cadangan umum pegawai utama untuk perkataan gesaan model penaakulan mereka sendiri adalah langsung, ringkas dan tepat.

Kami juga cuba melakukan eksperimen, dan keputusan akhir juga membuktikan bahawa

Pada masa lalu, kata-kata gesaan kuno model bukan inferens benar-benar boleh melambatkan prestasi apabila digunakan dalam model inferens.

Kami memilih berpuluh-puluh soalan sukar pelbagai jenis daripada leetcode dan mengujinya di ChatGPT. Mari kita tulis gesaan terlebih dahulu mengikut kaedah lama, seperti membayangkan bahawa ia adalah pengaturcara, untuk memikirkan rantaian pemikiran, dan juga memberikan banyak contoh, dsb.

Akibatnya, untuk kebanyakan soalan, tidak kira sama ada gesaan itu panjang atau pendek, model inferens O70 boleh memberikan kod yang betul, dan bahkan mengalahkan lebih daripada 0% orang, yang boleh dikatakan agak baik.

Tetapi dalam soalan 1, 0, 0, 0, 0, o0 gagal di bawah gesaan lama. Antaranya, ada soalan yang tersekat secara langsung, dan saya tidak mahu bermain.

Tetapi apabila kita tidak cosplay, kita tidak memberi contoh, dan kita mengalih keluar rantaian panduan pemikiran, O1 sebenarnya mendapat soalan yang sama kali ini.

Jadi, apa yang menjadikan Britney yang terdahulu menjadi Puan Niu dalam era model penaakulan?

Malah, sebab utama di sebaliknya ialahCara model bukan inferens tradisional dan model inferens berfikir tentang masalah telah berubah, dan perubahan dalam kaedah pemikiran mereka berpunca daripada perbezaan dalam kaedah latihan.

Model besar tradisional biasanya menggunakan pembelajaran tanpa pengawasan dan penalaan halus yang diselia, iaitu, set data diberikan dan ia dibenarkan mencari corak sendiri. Matlamat utamanya adalah untuk meneka semua perkataan dalam jawapan satu demi satu berdasarkan gesaan.

Secara terus terang, model umum sangat berkebolehan, tetapi tidak ada pendapat, yang lebih mesra pengguna. Semakin terperinci gesaan yang anda berikan, lebih banyak anda boleh mendapatkan model untuk melakukan apa yang anda mahukan.

Walau bagaimanapun, model inferens adalah berbeza, dan berdasarkan yang asal, ia menambah kaedah latihan berasaskan inferens seperti pembelajaran pengukuhan.

Proses latihan seperti ini akan membimbing model besar untuk cuba memberikan rantaian pemikiran yang lengkap dan betul, supaya ia boleh menilai sama ada betul untuk berfikir demikian.

Model ini sendiri mempunyai "pendapat" yang kuat, atau keupayaan penaakulan. Jika anda mengajarnya untuk melakukan sesuatu langkah demi langkah dan terperinci, ia mungkin bercanggah dengan keupayaan penaakulannya sendiri.

Sebagai contoh, dalam eksperimen kami, kami mendapati bahawa apabila menggunakan gesaan lama untuk membuat o1 menyelesaikan beberapa masalah pengaturcaraan berkaitan matematik, kebarangkalian terbalik adalah sangat tinggi.

Ini mungkin kerana gesaan itu hanya menjadikannya "pengaturcara kanan" dan bukannya "pengaturcara matematik yang baik".

Kami juga telah melihat banyak dokumentasi rasmi untuk model itu, dan nasihat yang mereka berikan hampir sama

Jangan mewah, gesaan adalah mudah dan langsung, dan tepat adalah yang terbaik.Di samping itu, adalah mungkin untuk memaksa masa penaakulan yang dilanjutkan, mendorongnya untuk "berfikir lebih banyak", atau "merenungkan keputusan anda".

Sesetengah kaedah lama masih boleh berfungsi, seperti menggunakan simbol yang sesuai, menjadikan struktur masalah jelas atau menjelaskan matlamat akhir dan format hasil anda.

Kaedah ini boleh menjadikan kesan model inferens lebih cantik dan 6.

所以,適當放下助 AI 情節,講清楚您的需求,雙手插兜敬 AI 操作,instead mungkin yang paling cekap。

Dan saya berpendapat bahawa dengan evolusi berterusan keupayaan model besar, ambang untuk menulis gesaan pasti akan semakin rendah.

Walau bagaimanapun, jika anda bertanya kepada kraf kejuruteraan perkataan segera, adakah ia akan hilang sepenuhnya? Kami juga berunding dengan Encik Li Jigang, seorang dewa besar yang telah menulis gesaan peringkat tuhan seperti "Tafsiran Cina Baru".

Begini cara dia menjawab: Selagi kita mempunyai input yang berbeza, akan ada output yang berbeza, dan projek perkataan segera akan sentiasa ada.

Akhirnya, bahagian depan ulasan buruk berpendapat bahawa bagi kami pengguna, dengan pengukuhan keupayaan model, kami juga harus mengemas kini senjata peluru perkataan segera, dan berhenti memegang kata-kata gesaan kuno yang ketinggalan zaman dan menjadi harta karun.