Seorang pakar AI terkemuka telah mengeluarkan peringatan keras tentang potensi kepunahan global yang dapat ditimbulkan oleh teknologi AI super pintar.
Eliezer Yudkowsky adalah peneliti AI terkemuka dan dia mengklaim bahwa “semua orang di Bumi akan mati” kecuali kita menghentikan pengembangan sistem kecerdasan manusia super.
Pria berusia 43 tahun ini adalah salah satu pendiri Machine Intelligence Research Institute dan (MIRI) dan mengaku tahu persis betapa “sangat berbahayanya teknologi ini”.
Dia takut jika menyangkut manusia versus kecerdasan yang lebih pintar dari manusia – hasilnya adalah “kerugian total,” tulisnya di WAKTU.
Sebagai sebuah metafora, katanya, hal ini seperti “abad ke-11 yang mencoba melawan abad ke-21”.
Singkatnya, masyarakat akan mengalami kerugian yang sangat besar.


Pada tanggal 29 Maret, para ahli terkemuka dari OpenAI mengajukan surat terbuka “Jeda Eksperimen AI Raksasa” yang menuntut larangan enam bulan segera dalam melatih sistem AI yang kuat selama enam bulan.
Itu ditandatangani oleh orang-orang seperti pendiri Apple Steve Wozniak dan Elon Musk.
Namun, ahli teori Amerika mengatakan dia menolak menandatangani petisi ini karena petisi tersebut “meminta terlalu sedikit untuk menyelesaikannya”.
Ancamannya begitu besar sehingga dia berpendapat bahwa penghancuran oleh AI “harus dianggap sebagai prioritas daripada pencegahan pertukaran nuklir penuh”.
Dia memperingatkan bahwa hasil yang paling mungkin dari ilmu robot adalah kita akan “menciptakan AI yang tidak melakukan apa yang kita inginkan, dan tidak peduli dengan kita atau menjalani kehidupan secara umum.”
Kami belum siap, aku Yudkowsky, untuk mengajari AI cara merawat, karena kami “tidak tahu caranya saat ini”.
Sebaliknya, kenyataan pahitnya adalah bahwa di dalam pikiran atau robot, “Anda terbuat dari atom-atom yang dapat digunakan untuk hal lain”.
“Jika seseorang membangun AI yang terlalu kuat, dalam kondisi saat ini, saya memperkirakan setiap anggota spesies manusia dan semua kehidupan biologis di Bumi akan mati segera setelahnya.”
Yudkowsky suka menunjukkan bahwa “saat ini kami tidak tahu bagaimana menentukan apakah sistem AI menyadari dirinya sendiri”.
Artinya, para ilmuwan dapat secara tidak sengaja menciptakan “pikiran digital yang benar-benar sadar” dan kemudian tergelincir ke dalam segala macam dilema moral bahwa makhluk sadar harus memiliki hak dan tidak dimiliki.
Ketidaktahuan kita, pintanya, akan menjadi kejatuhan kita.
Karena peneliti tidak tahu apakah mereka menciptakan AI yang sadar diri, katanya, “Anda tidak tahu apa yang Anda lakukan dan itu berbahaya dan Anda harus berhenti”.
Yudkowsky mengklaim bahwa kita membutuhkan waktu puluhan tahun untuk memecahkan pertanyaan tentang keamanan dalam kecerdasan manusia super—keamanan ini “tidak benar-benar membunuh semua orang”—dan pada saat itu kita semua bisa saja mati.
Titik sentral ahli adalah ini: “Kami tidak siap. Kami tidak berada di jalur yang harus dipersiapkan dalam jendela waktu yang masuk akal. Tidak ada rencana.
“Kemajuan dalam kemampuan AI jauh lebih maju dari kemajuan… dalam memahami apa yang terjadi di dalam sistem tersebut. Jika kita benar-benar melakukan hal itu, kita semua akan mati.”
Untuk menghindari bencana yang menghancurkan bumi ini, Yudkowsky yakin satu-satunya cara adalah menghentikan semua pelatihan baru mengenai teknologi AI di seluruh dunia “tanpa pengecualian, termasuk pemerintah dan militer”.
Jika ada yang melanggar perjanjian ini, pakar AI membuktikan keseriusannya dengan mengatakan bahwa pemerintah harus “bersiap untuk menghancurkan pusat data jahat dengan serangan udara”.
“Jelas bahwa siapa pun yang berbicara tentang perlombaan senjata adalah orang bodoh. Bahwa kita semua hidup atau mati sebagai satu kesatuan, ini bukanlah kebijakan, tetapi fakta alam.”


Yudkowsky menegaskan maksudnya, diakhiri dengan: “Jika kita terus melakukan ini, semua orang akan mati”.
“Matikan.”