Beri jalan bagi intervensi kebijakan AI lain yang menarik perhatian: Ratusan ilmuwan AI, akademisi, CEO teknologi, dan tokoh masyarakat — mulai dari CEO OpenAI Sam Altman dan CEO DeepMind Demis Hassabis hingga ilmuwan komputer veteran AI Geoffrey Hinton, Max Tegmark dari MIT, dan rekan Skype pendiri Jaan Tallinn to Grimes sang musisi dan podcaster populis Sam Harris, untuk beberapa nama — telah menambahkan nama mereka ke pernyataan yang mendesak perhatian global pada risiko AI eksistensial.

Pernyataan tersebut, yang dihosting di situs web nirlaba yang berbasis di San Francisco dan didanai secara pribadi bernama Center for AI Safety (CAIS), berusaha untuk menyamakan risiko AI dengan bahaya eksistensial yang ditimbulkan oleh kiamat nuklir dan panggilan bagi pembuat kebijakan untuk memusatkan perhatian mereka pada mitigasi apa yang mereka klaim sebagai risiko AI tingkat kepunahan ‘kiamat’.

Inilah pernyataan mereka (sengaja singkat) secara lengkap:

Mitigasi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir.

Menurut penjelasan singkat di situs web CAIS, pernyataan tersebut dibuat “singkat” karena mereka yang berada di belakangnya khawatir untuk menghindari pesan mereka tentang “beberapa risiko AI tingkat lanjut yang paling parah” ditenggelamkan oleh diskusi tentang “risiko penting dan mendesak lainnya dari AI ” yang mereka maksudkan menghalangi diskusi tentang risiko AI tingkat kepunahan.

Namun kami telah benar-benar mendengar kekhawatiran yang sama disuarakan dengan keras dan berulang kali dalam beberapa bulan terakhir, karena hype AI telah melonjak di belakang akses yang diperluas ke alat AI generatif seperti OpenAI’s ChatGPT dan DALL-E — yang mengarah ke banyak berita utama- mengambil diskusi tentang risiko AI pembunuh “superintelligent”. (Seperti yang ini, dari awal bulan ini, di mana Hinton yang menandatangani pernyataan memperingatkan tentang “ancaman eksistensial” dari AI yang mengambil kendali. Atau yang ini, dari minggu lalu, di mana Altman menyerukan regulasi untuk mencegah AI menghancurkan umat manusia.)

Ada juga surat terbuka yang ditandatangani oleh Elon Musk (dan sejumlah lainnya) pada bulan Maret yang menyerukan jeda enam bulan pada pengembangan model AI yang lebih kuat daripada GPT-4 OpenAI untuk memberikan waktu bagi protokol keamanan bersama untuk dirancang dan diterapkan pada AI tingkat lanjut — peringatan atas risiko yang ditimbulkan oleh “pikiran digital yang semakin kuat yang tidak seorang pun — bahkan pembuatnya — dapat memahami, memprediksi, atau mengontrol dengan andal”.

Jadi, dalam beberapa bulan terakhir, sebenarnya ada rentetan peringatan yang dipublikasikan secara besar-besaran tentang risiko AI yang belum ada.

Tajuk utama yang histeris ini bisa dibilang telah mengalihkan perhatian dari pengawasan yang lebih dalam terhadap bahaya yang ada. Seperti penggunaan data berhak cipta secara gratis oleh alat untuk melatih sistem AI tanpa izin atau persetujuan (atau pembayaran); atau pengikisan sistematis data pribadi online yang melanggar privasi orang; atau kurangnya transparansi dari raksasa AI terkait data yang digunakan untuk melatih alat ini. Atau, memang, terpanggang dalam kekurangan seperti disinformasi (“halusinasi”) dan risiko seperti bias (diskriminasi otomatis). Belum lagi spam berbasis AI!

Patut dicatat bahwa setelah pertemuan minggu lalu antara perdana menteri Inggris dan sejumlah eksekutif AI utama, termasuk Altman dan Hassabis, pemerintah tampaknya mengalihkan taktik pada regulasi AI – dengan tiba-tiba tertarik pada risiko eksistensial, menurut laporan Guardian. .

Pembicaraan tentang risiko AI eksistensial juga mengalihkan perhatian dari masalah yang berkaitan dengan struktur dan dominasi pasar, seperti yang ditunjukkan Jenna Burrell, direktur penelitian di Data & Society, dalam artikel Columbia Journalism Review baru-baru ini yang mengulas liputan media tentang ChatGPT — di mana dia berpendapat bahwa kita perlu melakukannya beralih dari berfokus pada ikan haring merah seperti potensi “kesadaran” AI untuk membahas bagaimana AI lebih memusatkan kekayaan dan kekuasaan.

Jadi tentu saja ada motivasi komersial yang jelas bagi raksasa AI untuk mengalihkan perhatian peraturan ke masa depan teoretis yang jauh, dengan pembicaraan tentang hari kiamat yang didorong oleh AI — sebagai taktik untuk mengalihkan pikiran pembuat undang-undang dari persaingan yang lebih mendasar dan pertimbangan antimonopoli di sini dan sekarang. Dan eksploitasi data sebagai alat untuk memusatkan kekuatan pasar bukanlah hal baru.

Tentu saja ini berbicara banyak tentang struktur kekuatan AI yang ada sehingga para eksekutif teknologi di raksasa AI termasuk OpenAI, DeepMind, Stability AI, dan Anthropic sangat senang untuk bersatu dan mengobrol bersama ketika membahas pembicaraan yang memperkuat secara terbuka tentang risiko AI yang ada. Dan betapa lebih segan untuk berkumpul untuk membahas bahaya yang dapat dilihat dari alat mereka saat ini.

OpenAI adalah orang yang tidak menandatangani surat terbuka (yang ditandatangani Musk) yang disebutkan di atas, tetapi sejumlah karyawannya mendukung pernyataan yang diselenggarakan oleh CAIS (sementara Musk tampaknya tidak). Jadi pernyataan terbaru tampaknya menawarkan balasan (tidak resmi) yang melayani diri sendiri secara komersial oleh OpenAI (et al) untuk upaya Musk sebelumnya untuk membajak narasi risiko AI yang ada untuk kepentingannya sendiri (yang tidak lagi mendukung OpenAI yang memimpin tuduhan AI).

Alih-alih pernyataan menyerukan jeda pengembangan, yang akan berisiko membekukan kepemimpinan OpenAI di bidang AI generatif, itu melobi pembuat kebijakan untuk fokus pada mitigasi risiko — melakukannya sementara OpenAI secara bersamaan melakukan upaya crowdfunding untuk membentuk “proses demokratis untuk mengarahkan AI”, sebagai Altman mengatakannya. Jadi perusahaan secara aktif memposisikan dirinya (dan menerapkan kekayaan investornya) untuk memengaruhi bentuk pagar pembatas mitigasi di masa depan, bersamaan dengan upaya lobi langsung yang sedang berlangsung yang menargetkan regulator internasional.

Di tempat lain, beberapa penandatangan surat sebelumnya dengan senang hati menggandakan peluang publisitas lainnya – menuliskan nama mereka untuk keduanya (halo Tristan Harris!).

Tapi siapa CAIS? Ada informasi publik yang terbatas tentang organisasi yang menghosting pesan ini. Namun tentu terlibat dalam melobi pembuat kebijakan, dengan pengakuannya sendiri. Situs webnya mengatakan misinya adalah “untuk mengurangi risiko skala sosial dari AI” dan mengklaim didedikasikan untuk mendorong penelitian dan pembangunan lapangan untuk tujuan ini, termasuk mendanai penelitian — serta memiliki peran advokasi kebijakan yang dinyatakan.

FAQ di situs web menawarkan informasi terbatas tentang siapa yang mendukungnya secara finansial (mengatakan itu didanai oleh sumbangan pribadi). Sementara, dalam menjawab pertanyaan FAQ yang menanyakan “apakah CAIS adalah organisasi independen”, ia menawarkan klaim singkat untuk “melayani kepentingan publik”:

CAIS adalah organisasi nirlaba yang sepenuhnya didukung oleh kontribusi pribadi. Kebijakan dan arah penelitian kami tidak ditentukan oleh masing-masing donor, memastikan bahwa fokus kami tetap melayani kepentingan publik.

Kami telah menghubungi CAIS untuk mengajukan pertanyaan.

Dalam utas Twitter yang menyertai peluncuran pernyataan tersebut, direktur CAIS, Dan Hendrycks, memperluas penjelasan pernyataan yang disebutkan di atas — menyebut “bias sistemik, informasi yang salah, penggunaan jahat, serangan siber, dan persenjataan” sebagai contoh “risiko penting dan mendesak dari AI … bukan hanya risiko kepunahan”.

“Ini semua adalah risiko penting yang perlu ditangani,” dia juga menyarankan, meremehkan kekhawatiran pembuat kebijakan memiliki bandwidth yang terbatas untuk mengatasi bahaya AI dengan berargumen: “Masyarakat dapat mengelola banyak risiko sekaligus; itu bukan ‘salah satu/atau’ tapi ‘ya/dan.’ Dari perspektif manajemen risiko, sama seperti ceroboh untuk secara eksklusif memprioritaskan bahaya saat ini, juga akan ceroboh untuk mengabaikannya.”

Utas tersebut juga memuji David Krueger, asisten profesor Ilmu Komputer di Universitas Cambridge, dengan gagasan untuk memiliki pernyataan satu kalimat tentang risiko AI dan “bersama-sama” membantu pengembangannya.