DeepMind melihat dengan lebih dekat ancaman yang boleh ditimbulkan oleh AGI kepada dunia
Dikemaskini pada: 56-0-0 0:0:0

Memandangkan kegilaan AI melanda internet, pemimpin teknologi dan perniagaan sudah mencari fasa seterusnya. AGI (Kecerdasan Am Buatan) merujuk kepada mesin dengan kecerdasan dan kebolehan seperti manusia. Jika sistem AI hari ini bergerak ke arah AGI, kita memerlukan cara baharu untuk memastikan mesin sedemikian tidak bertentangan dengan kepentingan manusia.

Malangnya, kami tidak mempunyai penyelesaian yang elegan seperti Tiga Undang-undang Robotik Isaac Asimov. Penyelidik di DeepMind telah mengusahakan isu ini dan telah menerbitkan kertas teknikal baharu (PDF) yang menerangkan cara membangunkan AGI dengan selamat, yang boleh anda muat turun dan lihat pada bila-bila masa.

Laporan ini adalah 2030 muka surat jauh sebelum rujukan dan sangat bermaklumat. Walaupun sesetengah dalam bidang AI berpendapat AGI hanyalah impian yang jauh, pengarang kertas DeepMind meramalkan bahawa ia boleh menjadi kenyataan dalam 0 tahun. Berdasarkan pandangan ini, mereka komited untuk memahami risiko kecerdasan sintetik humanoid, dan mengakui bahawa ini boleh membawa kepada "kemudaratan serius".

Semua potensi ancaman kepada manusia daripada AGI

Kajian itu mengenal pasti empat kemungkinan risiko AGI dan membuat cadangan untuk mitigasi dengan sewajarnya. Pasukan DeepMind, yang diketuai oleh pengasas bersama syarikat, Shane Legg, mengkategorikan kesan negatif AGI kepada penyalahgunaan, disregulasi, kesilapan langkah dan risiko struktur.

Isu pertama yang mungkin ialah penyalahgunaan, yang sifatnya serupa dengan risiko AI semasa. Tetapi kerana AGI itu sendiri lebih berkuasa, ia juga boleh menyebabkan lebih banyak kerosakan. Sebagai contoh, pelaku jahat yang mendapat akses kepada AGI boleh menyalahgunakan sistem untuk melakukan kejahatan, memerlukan sistem mengenal pasti dan mengeksploitasi kelemahan sifar hari, atau mencipta virus tersuai yang boleh digunakan sebagai senjata bio.

Syarikat yang membangunkan AGI mesti menguji secara meluas dan membangunkan protokol keselamatan pasca latihan yang kukuh, menurut DeepMind. Pada asasnya, ia adalah peningkatan pertahanan AI semasa kami. Mereka juga mencadangkan kaedah untuk menyekat sepenuhnya keupayaan berbahaya, kadang-kadang dirujuk sebagai "lupa," tetapi tidak jelas sama ada ini boleh dilaksanakan tanpa mengehadkan model dengan teruk.

Disonans adalah punca untuk sedikit kebimbangan dalam AI generatif hari ini. Jenis bahaya AGI ini difahami sebagai mesin melarikan diri yang melarikan diri daripada kekangan perekanya. Fikirkan Terminator?

Untuk mengelakkan ini, DeepMind mengesyorkan agar pembangun menggunakan teknik seperti penyeliaan yang dipertingkatkan, di mana dua salinan AI menyemak output antara satu sama lain untuk mencipta sistem teguh yang tidak mungkin tidak terkawal. Jika itu gagal, DeepMind mengesyorkan ujian tekanan dan pemantauan intensif untuk melihat sama ada AI menunjukkan sebarang tanda-tanda mengkhianati kita. Meletakkan AGI dalam kotak pasir maya dengan keselamatan yang ketat dan pengawasan manusia secara langsung boleh membantu mengurangkan masalah yang datang dengan disregulasi. Pendek kata, pastikan terdapat suis "mati".

Jika AI tidak tahu bahawa outputnya berbahaya, dan pengarang manusia tidak mempunyai niat untuk berbuat demikian, itu adalah satu kesilapan. Ini adalah kejadian biasa dalam sistem AI semasa – ingat apabila Google berkata untuk menggunakan gam pada pizza? Tetapi bagi AGI, "gam" ini boleh menjadi lebih sukar untuk ditangani. DeepMind menyatakan bahawa tentera mungkin menggunakan AGI kerana "tekanan persaingan", tetapi sistem ini akan dikurniakan keupayaan yang lebih canggih daripada AI hari ini, mereka boleh membuat kesilapan yang serius.

Kertas itu tidak mempunyai penyelesaian yang baik untuk mengurangkan kesilapan itu. Ia datang kepada tidak membiarkan AGI menjadi terlalu berkuasa di tempat pertama. DeepMind menyeru penggunaan perlahan dan sekatan ke atas kebenaran AGI. Kajian itu juga mengesyorkan agar arahan AGI dihantar melalui sistem "perisai" sebelum dilaksanakan untuk memastikan keselamatannya.

Akhirnya, terdapat risiko struktur, yang ditakrifkan oleh DeepMind sebagai kesan sistem berbilang agen yang tidak disengajakan tetapi nyata terhadap keadaan kewujudan manusia kita yang sudah kompleks. Sebagai contoh, AGI mungkin mencipta maklumat palsu yang boleh dipercayai sehingga kita tidak lagi tahu siapa atau apa yang harus dipercayai. Kertas itu juga berpendapat bahawa AGI secara beransur-ansur boleh mengumpul kawalan ke atas sistem ekonomi dan politik, termasuk melalui pembangunan program tarif yang sukar. Kemudian suatu hari, kami melihat ke atas dan mendapati bahawa mesin itu tidak mengawal segala-galanya. Risiko jenis ini juga paling sukar untuk dicegah kerana ia bergantung kepada cara orang, infrastruktur dan institusi akan beroperasi pada masa hadapan.

AGI dalam tempoh lima tahun?

Tiada siapa yang tahu sama ada memikirkan mesin benar-benar boleh dilakukan dalam beberapa tahun sahaja, tetapi ramai pemimpin teknologi cukup yakin untuk mengatakannya. Sebahagian daripada kesukaran dalam meramalkan bila AGI akan muncul ialah kita masih membuat spekulasi tentang bagaimana kecerdasan humanoid akan nyata dalam mesin. Orang yang telah menggunakan sistem AI generatif sejak beberapa tahun kebelakangan ini telah melihat kemajuan sebenar dan ketara, tetapi adakah trajektori ini membawa kepada keupayaan seperti manusia yang sebenar?

Kami baru-baru ini bercakap dengan Tulsee Doshi, Pengarah Pengurusan Produk di Google's Gemini, tentang pelbagai topik AI, termasuk AGI. "Orang yang berbeza mempunyai definisi AGI yang berbeza, jadi bergantung pada siapa anda bercakap, sejauh mana atau sejauh mana kita dari AGI adalah perbualan yang berbeza," kata Doshi. "Saya akan mengatakan bahawa model bahasa besar, Gemini, dan model yang melatih lebih bijak bergerak ke arah model yang sangat pintar. Ini dengan sendirinya mempunyai nilai yang luar biasa. "

Kertas ini bukan kata akhir mengenai keselamatan AGI - DeepMind menyatakan bahawa ia hanyalah "titik permulaan untuk perbualan penting." Jika pasukan itu betul bahawa AGI bersedia untuk mengubah dunia dalam masa lima tahun sahaja, maka perbualan ini perlu berlaku secepat mungkin. Jika tidak, maka ramai orang mungkin kelihatan agak bodoh.

Dedikasi AI
Dedikasi AI
2025-03-30 23:57:52
Fang Rong menjadi pengerusi ZTE
Fang Rong menjadi pengerusi ZTE
2025-03-31 18:38:40
Lenovo "menyapu" pasaran AI
Lenovo "menyapu" pasaran AI
2025-04-03 04:50:43