Beberapa pengacara akan cukup bodoh untuk membiarkan AI membuat argumen mereka, tetapi satu sudah melakukannya, dan Hakim Brantley Starr mengambil langkah untuk memastikan bahwa bencana tidak terulang di ruang sidangnya.

Hakim federal Texas telah menambahkan persyaratan bahwa setiap pengacara yang muncul di pengadilannya harus membuktikan bahwa “tidak ada bagian dari pengarsipan yang dirancang oleh kecerdasan buatan generatif,” atau jika demikian, itu diperiksa “oleh manusia”.

Minggu lalu, pengacara Steven Schwartz mengizinkan ChatGPT untuk “melengkapi” penelitian hukumnya dalam pengajuan federal baru-baru ini, memberinya enam kasus dan preseden yang relevan — yang semuanya sepenuhnya berhalusinasi oleh model bahasa. Dia sekarang “sangat menyesal” melakukan ini, dan sementara liputan nasional dari kesalahan ini mungkin menyebabkan pengacara lain berpikir untuk mencoba berpikir lagi, Hakim Starr tidak mau mengambil risiko.

Di situs federal untuk Distrik Utara Texas, Starr, seperti hakim lainnya, memiliki kesempatan untuk menetapkan aturan khusus untuk ruang sidangnya. Dan ditambahkan baru-baru ini (meskipun tidak jelas apakah ini sebagai tanggapan atas pengajuan yang disebutkan di atas) adalah “Sertifikasi Wajib Mengenai Kecerdasan Buatan Generatif.” Eugene Volokh pertama kali melaporkan berita tersebut.

Semua pengacara yang muncul di hadapan Pengadilan harus mengajukan sertifikat yang membuktikan bahwa tidak ada bagian dari pengajuan yang dirancang oleh kecerdasan buatan generatif (seperti ChatGPT, Harvey.AI, atau Google Bard) atau bahwa bahasa apa pun yang dirancang oleh kecerdasan buatan generatif adalah diperiksa keakuratannya, menggunakan reporter cetak atau basis data hukum tradisional, oleh manusia.

Formulir yang harus ditandatangani pengacara ditambahkan, mencatat bahwa “kutipan, kutipan, pernyataan yang diparafrasakan, dan analisis hukum” semuanya tercakup dalam larangan ini. Karena ringkasan adalah salah satu keahlian AI yang kuat, dan menemukan serta meringkas kasus preseden atau sebelumnya adalah sesuatu yang telah diiklankan sebagai berpotensi membantu dalam pekerjaan hukum, hal ini mungkin akan lebih sering terjadi daripada yang diharapkan.

Siapa pun yang menyusun memorandum tentang masalah ini di kantor Hakim Starr pasti tahu. Persyaratan sertifikasi mencakup penjelasan yang cukup terinformasi dan meyakinkan tentang kebutuhannya (jeda baris ditambahkan agar mudah dibaca):

Platform ini sangat kuat dan memiliki banyak kegunaan dalam hukum: formulir perceraian, permintaan penemuan, kesalahan yang disarankan dalam dokumen, pertanyaan yang diantisipasi pada argumen lisan. Tetapi pengarahan hukum bukan salah satunya. Inilah alasannya.

Platform ini dalam kondisinya saat ini rentan terhadap halusinasi dan bias. Saat berhalusinasi, mereka mengada-ada—bahkan kutipan dan kutipan. Masalah lainnya adalah keandalan atau bias. Sementara pengacara bersumpah untuk mengesampingkan prasangka, bias, dan keyakinan pribadi mereka untuk dengan setia menegakkan hukum dan mewakili klien mereka, kecerdasan buatan generatif adalah produk pemrograman yang dirancang oleh manusia yang tidak harus bersumpah seperti itu.

Dengan demikian, sistem ini tidak memiliki kesetiaan kepada klien mana pun, supremasi hukum, atau undang-undang dan Konstitusi Amerika Serikat (atau, sebagaimana disebutkan di atas, kebenaran). Tidak terikat oleh rasa kewajiban, kehormatan, atau keadilan, program semacam itu bertindak sesuai dengan kode komputer daripada keyakinan, berdasarkan pemrograman daripada prinsip. Pihak mana pun yang percaya bahwa suatu platform memiliki akurasi dan keandalan yang diperlukan untuk pengarahan hukum dapat mengajukan cuti dan menjelaskan alasannya.

Dengan kata lain, bersiaplah untuk membenarkan diri sendiri.

Meskipun ini hanya satu hakim di satu pengadilan, tidak mengherankan jika orang lain menganggap aturan ini sebagai milik mereka. Sementara seperti yang dikatakan pengadilan, ini adalah teknologi yang kuat dan berpotensi membantu, penggunaannya setidaknya harus dinyatakan dengan jelas dan diperiksa keakuratannya.