Kebencian yang dihasilkan oleh AI meningkat: 3 hal yang harus dipertimbangkan oleh para pemimpin sebelum mengadopsi teknologi baru ini
Jonathan A. Greenblatt Kontributor
Ketika Anda mendengar ungkapan “kecerdasan buatan”, mungkin tergoda untuk membayangkan jenis mesin cerdas yang menjadi andalan fiksi ilmiah atau perluasan dari jenis teknofobia apokaliptik yang telah memesona umat manusia sejak monster Dr. Frankenstein.
Tetapi jenis AI yang dengan cepat diintegrasikan ke dalam bisnis di seluruh dunia bukanlah jenis ini — mereka adalah teknologi yang sangat nyata yang memiliki dampak nyata pada orang yang sebenarnya.
Sementara AI telah hadir dalam pengaturan bisnis selama bertahun-tahun, kemajuan produk AI generatif seperti ChatGPT, ChatSonic, Jasper AI, dan lainnya akan secara dramatis meningkatkan kemudahan penggunaan bagi kebanyakan orang. Akibatnya, publik Amerika sangat mengkhawatirkan potensi penyalahgunaan teknologi ini. Survei ADL baru-baru ini menemukan bahwa 84% orang Amerika khawatir AI generatif akan meningkatkan penyebaran informasi yang salah dan kebencian.
Para pemimpin yang mempertimbangkan untuk mengadopsi teknologi ini harus mengajukan pertanyaan sulit kepada diri mereka sendiri tentang bagaimana hal itu dapat membentuk masa depan — baik untuk kebaikan maupun keburukan — saat kita memasuki perbatasan baru ini. Berikut adalah tiga hal yang saya harap akan dipertimbangkan oleh semua pemimpin saat mereka mengintegrasikan alat AI generatif ke dalam organisasi dan tempat kerja.
Jadikan kepercayaan dan keamanan sebagai prioritas utama
Sementara media sosial digunakan untuk bergulat dengan moderasi konten, AI generatif diperkenalkan ke tempat kerja yang tidak memiliki pengalaman sebelumnya dalam menangani masalah ini, seperti perawatan kesehatan dan keuangan. Banyak industri akan segera menemukan diri mereka tiba-tiba dihadapkan pada tantangan baru yang sulit karena mereka mengadopsi teknologi ini. Jika Anda adalah perusahaan perawatan kesehatan yang chatbot bertenaga AI garis depan tiba-tiba bersikap kasar atau bahkan membenci pasien, bagaimana Anda akan mengatasinya?
Untuk semua kekuatan dan potensinya, AI generatif memudahkan, cepat, dan dapat diakses oleh aktor jahat untuk menghasilkan konten berbahaya.
Selama beberapa dekade, platform media sosial telah mengembangkan disiplin baru — kepercayaan dan keamanan — untuk mencoba mengatasi masalah pelik yang terkait dengan konten buatan pengguna. Tidak demikian halnya dengan industri lain.
Oleh karena itu, perusahaan perlu menghadirkan pakar kepercayaan dan keamanan untuk membicarakan penerapannya. Mereka perlu membangun keahlian dan memikirkan cara agar alat ini dapat disalahgunakan. Dan mereka perlu berinvestasi pada staf yang bertanggung jawab untuk mengatasi pelanggaran sehingga mereka tidak tertangkap basah ketika alat ini disalahgunakan oleh oknum jahat.
Membangun pagar pembatas yang tinggi dan menuntut transparansi
Terutama di tempat kerja atau pendidikan, platform AI harus memiliki pagar pembatas yang memadai untuk mencegah terciptanya konten yang penuh kebencian atau melecehkan.
Meskipun alat yang sangat berguna, platform AI tidak 100% aman. Dalam beberapa menit, misalnya, penguji ADL baru-baru ini menggunakan aplikasi Expedia, dengan fungsi ChatGPT barunya, untuk membuat rencana perjalanan pogrom anti-Yahudi terkenal di Eropa dan daftar toko peralatan seni terdekat tempat orang dapat membeli cat semprot, seolah-olah untuk terlibat dalam vandalisme terhadap situs tersebut.
Meskipun kami telah melihat beberapa AI generatif meningkatkan penanganan pertanyaan mereka yang dapat mengarah pada respons antisemit dan kebencian lainnya, kami telah melihat yang lain gagal saat memastikan mereka tidak akan berkontribusi pada penyebaran kebencian, pelecehan, teori konspirasi, dan jenis kejahatan lainnya. konten berbahaya.
Sebelum mengadopsi AI secara luas, para pemimpin harus mengajukan pertanyaan kritis, seperti: Pengujian seperti apa yang dilakukan untuk memastikan bahwa produk ini tidak terbuka untuk disalahgunakan? Kumpulan data mana yang digunakan untuk membuat model ini? Dan apakah pengalaman komunitas yang paling menjadi sasaran kebencian online diintegrasikan ke dalam pembuatan alat ini?
Tanpa transparansi dari platform, tidak ada jaminan model AI ini tidak memungkinkan penyebaran bias atau kefanatikan.
Perlindungan terhadap persenjataan
Bahkan dengan praktik kepercayaan dan keamanan yang kuat, AI masih dapat disalahgunakan oleh pengguna biasa. Sebagai pemimpin, kita perlu mendorong para perancang sistem AI untuk membangun perlindungan terhadap persenjataan manusia.
Sayangnya, untuk semua kekuatan dan potensi mereka, alat AI membuatnya mudah, cepat, dan dapat diakses oleh aktor jahat untuk menghasilkan konten untuk salah satu skenario tersebut. Mereka dapat menghasilkan berita palsu yang meyakinkan, membuat deepfake yang menarik secara visual, dan menyebarkan kebencian dan pelecehan dalam hitungan detik. Konten yang dihasilkan AI generatif juga dapat berkontribusi pada penyebaran ideologi ekstremis — atau digunakan untuk meradikalisasi individu yang rentan.
Menanggapi ancaman ini, platform AI harus menggabungkan sistem moderasi yang kuat yang dapat menahan potensi banjir konten berbahaya yang mungkin dihasilkan pelaku menggunakan alat ini.
AI generatif memiliki potensi yang hampir tak terbatas untuk meningkatkan kehidupan dan merevolusi cara kita memproses informasi yang tersedia secara online dalam jumlah tak terbatas. Saya senang dengan prospek masa depan dengan AI tetapi hanya dengan kepemimpinan yang bertanggung jawab.