Startup komputasi fotonik Lightmatter mengambil kesempatan besar di pasar komputasi AI yang berkembang pesat dengan kombo perangkat keras-perangkat lunak yang diklaim akan membantu industri naik level — dan menghemat banyak listrik untuk boot.

Chip Lightmatter pada dasarnya menggunakan aliran optik untuk menyelesaikan proses komputasi seperti produk vektor matriks. Matematika ini adalah inti dari banyak pekerjaan AI dan saat ini dilakukan oleh GPU dan TPU yang berspesialisasi di dalamnya tetapi menggunakan gerbang dan transistor silikon tradisional.

Masalah dengan itu adalah kita mendekati batas kepadatan dan karenanya kecepatan untuk watt atau ukuran tertentu. Kemajuan masih dibuat tetapi dengan biaya besar dan mendorong tepi fisika klasik. Superkomputer yang memungkinkan model pelatihan seperti GPT-4 sangat besar, mengonsumsi daya dalam jumlah besar, dan menghasilkan banyak limbah panas.

“Perusahaan terbesar di dunia sedang menghadapi hambatan energi dan mengalami tantangan besar dengan skalabilitas AI. Chip tradisional mendorong batas dari apa yang mungkin untuk didinginkan, dan pusat data menghasilkan jejak energi yang semakin besar. Kemajuan AI akan melambat secara signifikan kecuali kami menerapkan solusi baru di pusat data, ”kata CEO dan pendiri Lightmatter Nick Harris.

“Beberapa telah memproyeksikan bahwa melatih satu model bahasa besar dapat menghabiskan lebih banyak energi daripada yang dikonsumsi 100 rumah di AS dalam setahun. Selain itu, ada perkiraan bahwa 10%-20% dari total daya dunia akan beralih ke inferensi AI pada akhir dekade ini kecuali paradigma komputasi baru dibuat.”

Lightmatter, tentu saja, bermaksud menjadi salah satu paradigma baru itu. Pendekatannya, setidaknya berpotensi, lebih cepat dan lebih efisien, menggunakan susunan pandu gelombang optik mikroskopis untuk membiarkan cahaya pada dasarnya melakukan operasi logika hanya dengan melewatinya: semacam hibrida analog-digital. Karena pandu gelombang bersifat pasif, penarikan daya utama adalah membuat cahaya itu sendiri, kemudian membaca dan menangani keluarannya.

Salah satu aspek yang sangat menarik dari bentuk komputasi optik ini adalah Anda dapat meningkatkan kekuatan chip hanya dengan menggunakan lebih dari satu warna sekaligus. Biru melakukan satu operasi sementara merah melakukan yang lain – meskipun dalam praktiknya lebih seperti panjang gelombang 800 nanometer melakukan satu, 820 melakukan yang lain. Ini tidak sepele untuk melakukannya, tentu saja, tetapi “chip virtual” ini dapat sangat meningkatkan jumlah komputasi yang dilakukan pada array. Dua kali warna, dua kali kekuatan.

Harris memulai perusahaan berdasarkan pekerjaan komputasi optik yang dia dan timnya lakukan di MIT (yang melisensikan paten yang relevan untuk mereka) dan berhasil memperdebatkan putaran benih $ 11 juta pada tahun 2018. Seorang investor kemudian mengatakan bahwa “ini bukan a proyek sains”, tetapi Harris mengakui pada tahun 2021 bahwa meskipun mereka tahu “pada prinsipnya” teknologi harus berfungsi, ada banyak hal yang harus dilakukan untuk membuatnya beroperasi. Untungnya, dia memberi tahu saya bahwa dalam konteks investor menjatuhkan $80 juta lagi pada perusahaan.

Sekarang Lightmatter telah mengumpulkan $154 juta putaran C dan sedang mempersiapkan debut sebenarnya. Ini memiliki beberapa pilot dengan tumpukan penuh Envise (perangkat keras komputasi), Passage (interkoneksi, penting untuk operasi komputasi besar) dan Idiom, platform perangkat lunak yang menurut Harris harus memungkinkan pengembang pembelajaran mesin beradaptasi dengan cepat.

Unit Lightmatter Envise di penangkaran. Kredit Gambar: Lightmatter

“Kami telah membuat tumpukan perangkat lunak yang terintegrasi dengan mulus dengan PyTorch dan TensorFlow. Alur kerja untuk pengembang pembelajaran mesin sama dari sana — kami mengambil jaringan saraf yang dibangun dalam aplikasi standar industri ini dan mengimpor pustaka kami, sehingga semua kode berjalan di Envise,” jelasnya.

Perusahaan menolak untuk membuat klaim spesifik apa pun tentang percepatan atau peningkatan efisiensi, dan karena ini adalah arsitektur dan metode komputasi yang berbeda, sulit untuk membuat perbandingan apel-ke-apel. Tapi kita pasti berbicara di sepanjang garis urutan besarnya, bukan 10% atau 15% yang sangat sedikit. Interkoneksi juga ditingkatkan, karena tidak ada gunanya memiliki tingkat pemrosesan yang terisolasi di satu papan.

Tentu saja, ini bukan jenis chip serba guna yang dapat Anda gunakan di laptop Anda; itu sangat spesifik untuk tugas ini. Tapi kurangnya kekhususan tugas pada skala ini yang tampaknya menahan pengembangan AI – meskipun “menahan” adalah istilah yang salah karena bergerak dengan kecepatan tinggi. Tetapi pengembangan itu sangat mahal dan berat.

Pilot masih dalam versi beta, dan produksi massal direncanakan untuk tahun 2024, di mana mungkin mereka harus memiliki umpan balik dan kematangan yang cukup untuk diterapkan di pusat data.

Pendanaan untuk putaran ini berasal dari SIP Global, Fidelity Management & Research Company, Viking Global Investors, GV, HPE Pathfinder dan investor yang sudah ada.