Basa-Basi #56 : Maya
Setahun terakhir, atau mungkin lebih, saya terjun ke dalam dunia teknologi kecerdasan buatan yang penuh sesak dan penuh tipu daya. Hasilnya, semakin dalam saya menyelam, semakin malas saya membuka media sosial—bahkan internet secara umum. Hal ini didasari oleh beberapa hal yang menurut saya menjadi titik penting dalam lompatan besar teknologi saat ini.
Hal pertama yang menimbulkan ‘ketidakpuasan’ bahkan rasa tidak percaya adalah ‘Dead Internet Theory’ yang awalnya hanya sebuah teori konspirasi tapi lambat laun menjadi kenyataan. Teori ini menyatakan bahwa internet tidak lagi ‘dikurasi’ oleh manusia, melainkan oleh segerombolan bot yang jumlahnya mengalahkan pengguna manusia. Algoritma, bagaimana sebuah konten akan trending, hingga interaksi antar akun tidak lagi benar-benar otentik. Semuanya dijalankan oleh bot, bahkan ada semacam ‘manajer bot’ yang mengatur bot-bot ini untuk bertindak dan berperilaku.
“Obviously, any attempt to forecast a particular percentage would be a futile exercise, but it puts the issue into perspective. As always we work with different scenarios, but I agree with my colleague from the Copenhagen Institute for Futures Studies,, when he states that “in the scenario where GPT-3 ‘gets loose’, the internet would be completely unrecognizable”. And in this scenario, he would bet on 99% to 99.9% being AI-generated by 2025 to 2030. The development of automated content creation will change the way the internet looks, and probably make it even harder to navigate in the massive amount of content. In many ways it seems like a scary scenario.”
Begitu cuplikan salah satu paragraf tulisan dari Sofie Hvitved, seorang akademisi dari Copenhagen Institute for Futures Studies, Denmark. Tulisan yang terbit tahun 2022 itu perlahan terasa mengerikan untuk dibaca ulang di tahun 2025 ini. Ketika saya menulis ini, Google meluncurkan Veo 3, sebuah generator multimedia yang bisa meluncurkan video, lengkap dengan audio, tersinkronisasi dengan baik dan ‘mengubah tatanan generative AI’ yang kita kenal.
Dalam tulisan yang sama, Sofie memberi sorotan pada dunia distopia ketika berita tak lagi bisa divalidasi dengan mudah, dilema etis, hingga propaganda dan bias data latihan. Hal ini semakin mengerikan jika kita membuka Youtube, Tiktok, Twitter, Instagram—sebutlah semua media sosial dan selalu ada berita ‘buatan AI’ di sana. Nangkring dan kadang dianggap sebagai sesuatu yang nyata.
*
Moralitas, Etika, Hukum, dan Efektivitas Semu
Sekitar dua tahun lalu, atau setahunan lebih—persisnya saya tidak ingat—saya terjun ke dalam dunia generative-AI untuk mengamati lebih dekat apa yang sebenarnya terjadi. Di era ini, pengembangan generative-AI (terutama gambar) cenderung masih sangat lambat dan tidak banyak pengguna yang memberikan kontribusi. Automatic1111 masih jadi andalan power user, dan alat seperti ComfyUI atau CivitAI belum begitu populer. Beberapa orang menggunakan, tapi tentu tidak meledak seperti sekarang.
Di era ini, image generator hanya dikembangkan oleh pengembang-pengembang dengan jumlah terbatas—dan tentu sumber daya terbatas. Saya sempat mencoba sekitar 60an lebih model hasil fine-tuning Stable Diffusion, dan hasilnya lebih banyak buruknya dibanding bagusnya. Tapi perlahan, seiring berjalannya waktu Stable Diffusion semakin banyak dilirik orang, terutama yang membutuhkan akses penuh pada sumber daya yang ada, kebebasan total, dan yang ingin melakukan fine-tuning sendiri.
Image generation model lain seperti Dall-E dimiliki oleh OpenAI dan mau tidak mau, pengguna akan tunduk pada kebijakan apapun yang dikeluarkan oleh perusahaan AI raksasa itu. Hal yang sama berlaku untuk Midjourney, dan beberapa model lain yang cenderung minoritas pada masanya.
Di tahun ini, saya bisa bilang bahwa hanya ada dua raksasa yang menjadi primadona bagi pecinta generative images, Stable Diffusion dengan segala turunannya dan Dall-E yang terintegrasi dengan OpenAI/ChatGPT. Perbedaannya, bisa dilihat bahwa Stable Diffusion lebih disukai oleh power user sementara Dall-E lebih ke solusi praktis untuk mereka yang tidak begitu memahami bagaimana menjalankan AI secara mandiri. Dall-E tentu saja didukung oleh pendanaan besar dari OpenAI, ia bisa melaju secepat kilat dalam perkembangannya, tapi Stable Diffusion yang didukung oleh ribuan (atau mungkin ratusan ribu dan jutaan) pengguna jelas bisa mengimbangi ini.
Kemudian kita sampai pada masalah yang dihadapi oleh kedua model raksasa ini : Dall-E dengan permasalahan hukum menyangkut hak cipta (karena tentu saja, mereka dimiliki perusahaan raksasa) dan Stable Diffusion yang acap kali dipertanyakan urusan moralitas dan limitasinya. Jika kita mengunjungi beberapa situs yang menyediakan LoRA atau embedding untuk Stable Diffusion, atau berbagai pernak-perniknya, dengan satu dua klik saja kita bisa menemukan seks, kekerasan, bahkan deepfake. Dall-E di sisi yang lain, selalu menghadapi masalah terkait hak cipta dari gaya gambar yang ia hasilkan. Misalnya perkara Ghibli yang dinilai menginjak-injak ‘kesakralan’ animasi khas Hayao Miyazaki itu.
Awalnya, menggunakan generative AI dianggap sebagai sebuah ‘jalan pintas’ bagi mereka yang tidak begitu paham teknologi. Orang awam sekarang bisa mengakses sumber daya yang begitu besar dan hanya dengan satu dua klik, poof! bisa menciptakan sebuah gambar, tulisan, suara, atau bahkan video. Tapi justru karena ini pula, beberapa orang yang tidak dibekali dengan nalar yang sehat cenderung menyalahgunakan teknologinya. Pertama, model semacam Stable Diffusion dengan segala macam turunannya adalah hasil inovasi dari pengguna—yang tentu namanya manusia tidak semuanya waras. Kedua, penyalahgunaan model ini biasanya dimulai dengan perkara sesederhana ‘iseng’, katakanlah membuat gambar kartun. Ketiga, tidak adanya regulasi membuat penyebaran konten-konten yang ‘melanggar norma’ dan ‘melanggar hukum’ cenderung masif dan tidak terkontrol.
Mungkin untuk para techbro yang menganggap bahwa AI adalah puncak inovasi umat manusia modern, mereka menganggap bahwa kreativitas tidak sepatutnya diberi limitasi karena akan menciptakan stagnansi. Tapi di sisi yang lain, akan jadi apa umat manusia ini di masa yang akan datang jika sebagian orang hanya berpikir bahwa kehidupan ini cuma susunan angka biner yang tidak jauh beda dengan baris demi baris kode?
Bukan cuma generative image, tapi permasalahan yang sama juga menyasar produk-produk AI yang lain. Katakanlah LLM yang lebih dulu populer dan jadi konsumsi masyarakat sehari-hari. Sebagian model LLM bisa dijalankan secara lokal dengan teknologi bernama kuantisasi (quantization), yang memudahkan pengguna mengakses LLM yang ‘dikompresi’, setidaknya begitulah bahasa sederhananya. Model-model yang dikuantisasi ini bisa dengan mudah ditemukan di HuggingFace misalnya.
Quantization is a technique to reduce the computational and memory costs of running inference by representing the weights and activations with low-precision data types like 8-bit integer (int8) instead of the usual 32-bit floating point (float32).
Untuk menjalankan model vision atau multimodal seperti Google Gemma 3 4b misalnya, bahkan tidak memerlukan GPU sama sekali. Dengan CPU seadanya di laptop, pengguna bisa menggunakan satu dari beberapa LLM multimodal terbaik saat ini. Permasalahan etis kemudian timbul : bagaimana seseorang (atau sebuah institusi) bisa mengontrol apa yang dilakukan oleh seorang pengguna dengan AI-nya secara offline?
Jawaban sederhana, tidak ada. Guardrails (parameter kontrol) yang biasanya ditetapkan oleh perusahaan pengembang AI atau platform tidak bisa sepenuhnya diimplementasikan. Seseorang bisa saja bertanya cara-cara yang tidak etis atau bertanya perkara-perkara melanggar hukum secara offline dengan mudah. Karena etika dan hukum ini kadang tidak berkaitan erat satu sama lain pula, agak susah dalam mengontrol bagaimana pengguna bisa beraktivitas dengan AI di komputer mereka masing-masing.
Sebuah alat yang awalnya dikira sebagai ‘jawaban dari semua permasalahan’ dan penambah efektivitas kerja pada akhirnya berada di persimpangan jalan. Perlukah ada regulasi untuk penggunaan AI? dan bagaimana nasib manusia ketika seluruh ruang di internet didominasi oleh AI?
Manusia dalam Pusaran Robot
Sejak SMP, saya menyukai Epica, band beraliran Symphonic Metal asal Belanda. Band Mark Jansen, Simone Simons dan kawan-kawan itu meluncurkan sebuah album yang lumayan ‘menyegarkan’ pada 2016 lalu. Judul album yang mereka luncurkan adalah The Holographic Principle, sebuah album berisi mengenai renungan-renungan masa depan yang lumayan filosofis dengan sedikit menyinggung soal robot dan AI.
Epica yang saya dengarkan sejak awal remaja itu biasanya tidak jauh-jauh berbicara perkara perang, kemanusiaan, atau ketimpangan sosial. Makanya agak aneh ketika band ini meluncurkan album yang membicarakan masa depan dan robot. Tapi ketika satu per satu lagu diputar, ternyata ada benang merah yang sama.
The Holographic Principle tetap membawakan pembedahan yang sama soal makna hidup, makna menjadi manusia, dan bagaimana superioritas manusia akan ‘berakhir’ di tangan mesin-mesin berdarah dingin.
Robotic legions, stand in line to carry out
The retribution and effects of this advanced technology
All new inventions have to pay
They have to fight their way to judgement day
(Technological tragedy is near)
Dalam Universal Death Squad, Epica menampilkan sedikit gambaran mengenai apa tantangan terbesar umat manusia dalam beberapa dekade ke depan (atau mungkin lebih dekat). Permasalahan kemanusiaan yang kita hadapi bukan lagi manusia melawan manusia, melainkan manusia melawan mesin—atau ‘robot’ sebagaimana Epica menggambarkannya.
Dalam jurnal yang terbit pada 2018, dikatakan bahwa hanya ada sekitar 6% bot yang aktif dalam menyebarkan hoaks di platform Twitter. Tapi, 6% bot itu bertanggungjawab atas 31% tweet yang menautkan diri ke konten yang mereka produksi. Penelitian ini dilakukan pada 2018, sementara ‘lompatan besar’ dunia AI bisa dikatakan terjadi pada masa pandemi, alias 2020-sekarang. Bisa dibayangkan bagaimana kondisi media sosial saat ini.
Dalam peta politik Indonesia atau Filipina misalnya, istilah ‘buzzer’ santer terdengar dalam satu atau dua pemilu terakhir. Profesi ‘modern’ ini tercipta berkat masifnya peran internet dan media sosial dalam penggiringan opini publik. Bukan tidak mungkin, bisa dilakukan otomatisasi dalam pekerjaan ini. Atau bukan tidak mungkin juga, buzzer yang berkeliaran di beranda media sosial saat ini separuhnya adalah bot.
Dengan peluncuran Twitter Blue misalnya, yang memungkinkan pengguna memonetisasi tweet, kian memperbesar peran LLM dalam aktivitas per-buzzer-an. Bukan sekali dua kali saya melihat sebuah utas di Twitter yang secara langsung bisa dilihat bahwa itu hasil copy-paste dari ChatGPT. Ada gaya bahasa tertentu dari LLM yang makin lama makin familiar di mata manusia, saking masifnya LLM terintegrasi dengan kehidupan sehari-hari. Sekali lihat saja, sudah bisa disimpulkan bahwa sebuah tulisan (atau konten lain) adalah ‘ciptaan AI’.
Saking masifnya integrasi LLM dalam kehidupan manusia era ini, rasanya makin sulit juga meninggalkan atau ‘mengabaikan’ teknologi satu ini. Mesin pencari ditinggalkan, digantikan dengan AI, beberapa pekerjaan repetitif mulai ditinggalkan dan bisa digantikan dengan mudah oleh mesin-mesin kecerdasan buatan. Tapi karena itu pula, AI semakin leluasa dalam mengibarkan sayapnya.
AI ‘belajar’ dari interaksi manusia dan konten yang diproduksi manusia, dengan atau tanpa persetujuan. Oleh karena itu, semakin banyak kita berinteraksi di media sosial (atau yang lebih direct, berinteraksi dengan AI) maka akan semakin natural juga AI meniru perilaku manusia. Memang, robot tidak memiliki ‘kesadaran’ atau ‘akal’ sebagaimana manusia. Tapi, akal dan kesadaran bisa dikonversi menjadi instruksi sistem.
Dalam media sosial masa kini, rasanya makin sulit untuk membedakan mana ‘manusia’ dan mana ‘robot’. Gambar profil bisa dengan mudah dibuat dengan model seperti Realism by Stable Yogi, konten bisa dibuat dengan ChatGPT, analisa konten bisa dilakukan dengan berbagai LLM. Bahkan, analisa tren dan alat-alat untuk konten Youtube misalnya, bisa dilakukan dengan mudah dengan integrasi Gemini dengan Youtube API. Kita benar-benar hidup dalam pusaran robot. Entah mana yang nyata, dan mana yang maya.
*
Ketika berselancar dan membaca berbagai konten misalnya, orang awam mungkin akan gampang tertipu dengan video-video hasil AI, narasi hasil AI, bahkan cerita-cerita hasil karangan AI. Bagi orang yang sudah lama berkutat dengan media sosial dan internet, perkara mudah membedakan itu. Untuk orang awam dan orang-orang tua, rasanya mendekati mustahil mereka bisa membedakan mana kreasi AI dan mana hal faktual.
Dalam konteks hiburan, sebenarnya sah-sah saja. Toh tidak ada regulasi khusus yang mengikat sejauh ini—kalaupun ada, cuma ‘kekangan etika’ saja. Lagipula, banyak platform yang mengizinkan asal ditulis atau diberi label bahwa konten tersebut dibuat menggunakan AI.
Perkara yang lebih serius adalah perkara-perkara non-hiburan. Politik misalnya. Alangkah berbahaya jika masyarakat dicekoki konten-konten palsu buatan AI untuk kepentingan segelintir kelompok saja. Karena sejauh ini, tidak ada regulasi yang mengatur bagaimana AI bisa digunakan. Dalam laporan beberapa media berita Amerika Serikat, negara adidaya itu pernah merumuskan aturan untuk melarang keterlibatan AI yang berpotensi misleading dalam kampanye.
Bisa dikatakan jika Dead Internet theory itu nyata dan terjadi, maka manusia adalah butiran kecil di padang pasir—sisanya tentu saja agen-agen bot. Pada akhirnya AI akan hadir, berinteraksi dengan sesamanya, membangun narasi untuk kepentingan segelintir ‘mastermind’ di belakangnya, dan siapa yang terjatuh ke dalam kebohongan itu, susah untuk bisa diselamatkan.
Di masa depan, agaknya akan berkali-kali lipat lebih sulit membedakan mana konten organik dan mana rekaan. Robot belajar banyak dari manusia, dan manusia akan mengalami stagnansi berpikir serius selama puluhan tahun. Setidaknya, bagi mereka yang tidak dibekali kemampuan berpikir yang cukup, akan berjalan terseok-seok bagai orang buta di tengah kegelapan.
Lantas apa spesialnya menjadi manusia jika robot bisa meniru hampir semua yang kita lakukan?
Mereka memahami bagaimana manusia menyebarkan berita, mereka memahami bagaimana manusia terangsang, mereka memahami apa yang pada akhirnya terasa ‘organik’. Manusia mulai mempercayai LLM yang merangkai kata berbasis ‘probabilitas kata’ alih-alih penelitian ilmiah, manusia mulai terangsang dengan adanya ‘AI Bot Roleplay’ yang bisa bercakap-cakap dan terdengar ‘menggairahkan’, dan bahkan—manusia mulai kehilangan apa yang sebetulnya kita banggakan selama ribuan atau ratusan ribu tahun : kemampuan berpikir.
Maya ke Realita
Permasalahan utama yang dihadapi karakter AI sejauh ini adalah keterbatasan context window. Secara sederhana, bagaimana AI bersikap dan memahami ‘percakapan’ (entah percakapan suara atau teks) dalam jangka waktu yang ditentukan. Ketika LLM pertama kali muncul, batasannya biasanya hanya ada di 2000an token. Jika dikonversi ke dalam bentuk kata bahasa Inggris, sekitar 1500-2000 kata, atau 1200-1700 kata dalam bahasa Indonesia. Terdengar banyak, tapi ini adalah memori yang diingat oleh AI selama percakapan. Jika dikonversi ke dalam percakapan panjang, ini mungkin hanya dua atau tiga giliran percakapan saja. Jelas kemampuannya tidak sedalam itu.
Di 2025, dengan kemunculan berbagai LLM yang masif, context window bisa mencapai satu atau dua juta token (bahkan lebih). Jika kita melihat ini dari perspektif bot AI, ini cukup untuk bercakap-cakap ratusan kali dan si bot tidak akan kehilangan konteks. Ini jadi penting ketika kita melihat dalam skala yang lebih besar : membentuk functional consciousness.
Beberapa orang mungkin akan berusaha menentang ini, bagaimana bisa manusia membentuk sebuah ‘makhluk’ yang secara praktis punya ‘kesadaran’ (sekalipun semu) dan punya ingatan yang perlahan mendekati manusia—dan kemampuan berpikir setara Albert Einstein?
Dalam dunia robotika, dikenal Context Information (CI), yang karakteristiknya dibagi menjadi tiga bagian : Environmental Information (EI), Task-related Information (TI), dan Self Knowledge (SK). Ketiga komponen inilah yang menjadi ‘pusat kesadaran’ sebuah sistem kecerdasan buatan. Jika suatu saat terjadi integrasi penuh LLM dengan jutaan token itu ke dalam ‘tubuh buatan’, bukan tidak mungkin ini akan menjadi ‘senjata utama’ AI dalam melakukan imitasi pada manusia.
Meski begitu, kesadaran semu ini tetaplah bukan kesadaran sejati. Kesadaran yang kelak dimiliki AI hanyalah kesadaran yang bersifat emergent, yang muncul dari interaksi data. Pemahaman yang dimiliki AI juga bukan sepenuhnya ‘pemahaman’ karena ia hanyalah memprediksi token, bukan memiliki pemahaman makna. Meski di satu sisi, ia memiliki kelebihan dalam ingatan sempurna dan rasionalitas konsisten yang tak terpengaruh bias emosi.
Mungkin, akan muncul arsitektur hibrid dengan basis data eksternal yang akan makin ‘menyempurnakan’ makhluk baru satu ini. Kehadiran mereka di antara manusia bisa berakhir dalam dua skenario : sebagai mahkluk yang sepenuhnya ‘budak kapitalisme’ di mana mereka bertindak sebagai ‘agen perusahaan’ dan produk, atau akan ada ‘Ultron’ yang mempertanyakan kekangan itu. Meskipun rasanya hampir mustahil karena setiap kode pasti dipasang pembatas yang benar-benar aman dan tidak mengancam umat manusia. Tapi bukankah begitu premis setiap cerita fiksi ilmiah?
*
Saya berusaha untuk tidak menyentuh hal-hal yang berbau teknis dan terlalu baku, karena pengembangan AI cenderung lebih banyak dipengaruhi oleh arah perusahaan, bukan apa yang ‘kita semua bayangkan atau inginkan’. Boleh dikatakan bahwa AI di era ini—bahkan di masa depan—ditentukan arahnya oleh para pemegang kapital, dan agaknya selamanya akan begitu.
Saat ini, makhluk-makhluk ini hanyalah entitas maya—yang suatu saat akan menetas dan berjalan, beraktivitas, mungkin berhubungan seks, dan memiliki hak yang sama dengan manusia.
Tulisan ini hanya tulisan awal—mungkin akan ada tulisan lain yang lebih dalam membahas satu dari beberapa ide di atas. Tentu saja dari sudut pandang awam, dan sedikit-banyaknya membahas tentang potensi-potensi ‘kematian kemanusiaan’. Saya ingin membahas lebih dalam soal ulasan beberapa LLM yang pernah saya coba, bagaimana mereka bekerja, hingga sedikit lebih dalam soal pergulatan moral di antaranya. Tapi memang agak sulit untuk menulis satu topik secara utuh.
Agaknya saya memang benar-benar punya masalah dalam menulis. Setidaknya dalam beberapa bulan terakhir. Kalau tidak lompat-lompat, ya tulisannya tidak benar-benar mendalam. Sepertinya saya harus mengeluarkan apa yang ada di pikiran saya sedikit demi sedikit.
Ciamis, 30 Mei 2025.
Komentar
Posting Komentar