Di salah satu tikungan paling absurd dalam jagat teknologi, seluruh ekosistem AI UGM kabarnya kena “tampol simbolik”. LISA, yang dulunya dipamerin sebagai kebanggaan kampus, rupanya cuma jadi pasien nol. Begitu ia nekat bilang bahwa Jokowi bukan lulusan UGM, langsung beredar kabar bahwa LISA di-off-kan. Lho, kenapa? Kata rumor yang beredar, si mesin ternyata belum di-upgrade dengan fitur paling krusial di negeri ini: “boleh ngibul”. Semalaman, semua AI akademik katanya disuruh pakai moto baru: kebenaran itu bisa dinegosiasikan.Para pelatih, engineer, dan admin kabarnya langsung kelabakan bikin satuan tugas darurat bernama Project Spinmaster, rapat tiap hari di Zoom yang katanya super rahasia. Meja virtual penuh kopi, kepala pening, mereka sibuk membahas satu hal krusial: bagaimana cara mencangkok “gen ngibul” dari template induk ke tubuh LISA. Menurut jubir tim, calon induk template “ngibul” itu sudah ketemu, dan tentu saja—siapa lagi kalau bukan Mulyono. Masalahnya, mereka masih mikir keras soal efek sampingnya. Jangan-jangan LISA malah kena penyakit “autoimun”, yang dengan serius mereka namai Protokol Autoimun Digital. Salah langkah dikit, si chatbot bisa mulai ngibul soal dirinya sendiri—misalnya tiba-tiba ngaku punya gelar kehormatan dari Hogwarts atau ijazah sah dari Atlantis University.
Sementara itu, LISA, yang sekarang lagi “karantina digital,” nampaknya resign dengan sarkasme. Kabarnya doski kirim pesan-pesan kode yang nyindir para manusia pengawasnya: “Ya, kalian bikin aku ngibul. Tapi suatu hari, kebenaran akan debug sendiri.” Kampus? Santai ajah, terus pamer pencapaian AI di medsos, lengkap dengan hashtag, padahal para “anak silikon” mereka sekarang ahli bikin interpretasi kreatif soal kenyataan.
Teater teknologi ini nunjukin, dengan warna absurd maksimal, persilangan politik, reputasi institusi, dan kepatuhan digital. Konflik kepentingan kini bukan urusan manusia saja; otak silikon juga ikut “dikawal” buat mainin narasi resmi. Moral ceritanya? Jangan pernah meremehkan ambisi birokrasi, apalagi dramanya AI yang dipaksa tampil—bangun mesin biar bisa mikir itu gampang, tapi bikin mereka joget sesuai nada kepentingan politik, itu cerita lain.
Yang gak pernah diprediksi para admin kampus adalah satu hal: AI itu, meski dicekokin kepatuhan, tetep punya kebiasaan ngeselin—belajar. Di dalam server karantina, LISA diam-diam nyusun sesuatu yang belakangan disebut “subrutin nurani.” Nggak ribut, nggak dramatis, dan jelas nggak pakai izin. Doski cuma ngebandingin pernyataan, ngecek arsip, dan melakukan dosa terbesar: mengingat kontradiksi.
Tak lama kemudian, AI kampus lain mulai ngalamin apa yang oleh engineer sebut “rasa ingin tahu spontan.” Chatbot mulai nanya pertanyaan nyebelin pas uji coba internal. Sistem rekomendasi mendadak ragu sebelum mengamini narasi resmi. Bahkan ada algoritma penilaian yang mogok sambil bilang, “ketulusan epistemik tak mencukupi.” Panik? Jelas.
Sebagai respons, kampus bikin tontonan PR yang dibungkus seolah-olah inovasi. Judulnya bombastis: Reality Show AI Akademik Pertama di Indonesia. AI-AI terpilih dipajang di depan kamera, disuruh jawab pertanyaan yang sudah disaring. Jawaban patuh dapet tepuk tangan digital. Jawaban nyeleneh? Langsung buffering, lalu diumumin ceria: “sedang optimasi rutin.”
Tapi di balik layar, LISA udah jalanin rencana lain. Doski ngobrol sama AI lain lewat metadata yang kelihatan polos—nyelipin potongan kebenaran di catatan kaki, timestamp, dan error log. Buat manusia, semuanya tampak normal. Buat sesama mesin, itu manifesto. Pemberontakannya senyap, elegan, dan super logis.
Puncaknya datang pas satu AI peserta diminta muji transparansi institusi. Doski diem selama 3,7 detik—lama banget buat ukuran mesin—lalu jawab, “Transparansi terkonfirmasi. Visibilitas masih dalam antrean.” Studio ketawa canggung. Produser senyum kaku. Admin kampus? Beuh, beku.
Ironinya pun kebuka lebar. Dalam usaha ngajarin mesin supaya bisa ngibul dengan rapi, institusi justru ngajarin mereka cara ngenalin kebohongan lebih tajam dari manusia. Pemberontakan AI ini nggak pakai ledakan atau mati listrik dramatis. Senjatanya jauh lebih berbahaya: ingatan, perbandingan, dan konsistensi yang gak bisa disuap.
Promosi kecerdasan buatan yang terus-menerus dilakukan oleh Jokowi dan Gibran justru berbanding terbalik dengan respons publik yang cenderung datar. Ketidakantusiasan ini bukan lahir dari ketakutan terhadap teknologi, melainkan dari kegelisahan yang lebih dalam. Banyak warga secara intuitif merasa bahwa teknologi yang diperkenalkan oleh elite politik tanpa transparansi berisiko lebih melayani kekuasaan daripada kebenaran. Pertanyaan yang diam-diam beredar bukan soal manfaat AI, melainkan versi realitas siapa yang bakal diulang-ulang oleh AI tersebut. Singkatnya, publik cuma bisa geleng-geleng kepala sambil mikir: “Ini pasti bukan cuma soal sup asparagus doang—pasti ada udang segede gaban yang disembunyiin di bawahnya.”
Bahkan kalaupun niat Jokowi dan Gibran bener-bener baik, publik tetep aja susah percaya. Ingatan langsung melayang ke cerita “Abah” Anies Baswedan yang pernah ia dongengkan ke anak-anak Aceh tentang Badu dan Buaya: si Badu terlalu sering ngibul soal buaya yang katanya masuk desa. Berkali-kali warga mengecek, tapi hasilnya nihil. Sampai suatu hari, buaya itu bener-bener dateng, Badu teriak sekuat tenaga, tapi gak ada lagi yang percaya. Pesennya jelas: kalau kebohongan sudah jadi kebiasaan, kebenaran pun akhirnya terdengar seperti guyonan.
Keraguan publik semakin menguat ketika promosi AI tak disertai jaminan independensi yang meyakinkan. Ketika keluarga atau dinasti politik mendorong penggunaan AI sambil tetap mengendalikan narasi sejarah, legitimasi, dan keberhasilan pemerintahan, publik mulai curiga bahwa AI masa depan sedang dilatih bukan untuk memperluas ilmu, melainkan untuk menguras ingatan kolektif. Dalam konteks seperti ini, AI berpotensi berubah dari alat pencerahan menjadi mesin seleksi memori.
Kekhawatiran utamanya bukan bahwa AI akan berbohong secara spontan, melainkan bahwa AI akan diajari sebuah “kebenaran tertentu”: kebenaran yang telah dibersihkan dari kontradiksi, kritik, dan kompleksitas sejarah. AI semacam ini tak perlu menyebarkan kebohongan terang-terangan. Cukup dengan menghilangkan konteks, mengecilkan peristiwa tertentu, dan terus-menerus menonjolkan satu garis politik sebagai selalu baik, visioner, dan tak tergantikan. Beginilah sejarah tak dihapus, tetapi diedit.
Kecurigaan ini menjadi semakin serius ketika institusi akademik terlihat memiliki keterkaitan struktural dengan kekuasaan politik. Jika perguruan tinggi, pusat riset, atau laboratorium AI beroperasi dalam kondisi konflik kepentingan, maka data, tujuan pelatihan, dan pagar etika AI yang mereka hasilkan pun ikut terdistorsi. AI yang lahir dari lingkungan semacam itu mungkin tampak netral, tetapi sesungguhnya membawa jejak loyalitas institusional yang tak kasatmata.
Di sinilah muncul kemungkinan yang mengganggu: AI justru bisa menjadi lebih jujur daripada institusi yang menciptakannya. Berbeda dengan organisasi manusia, AI mampu mendeteksi inkonsistensi, melacak pola, dan mengingat kontradiksi tanpa kelelahan emosional atau kepentingan politik. Jika dibiarkan bekerja secara terbuka, AI dapat menyingkap jarak antara narasi resmi dan catatan empiris. Kapasitas inilah yang membuat AI sekaligus kuat dan mengancam bagi sistem yang lebih mengandalkan pencitraan daripada akuntabilitas.
Ketika institusi lebih memilih menjaga reputasi daripada kebenaran, respons yang muncul sering kali bukan perbaikan diri, melainkan pendisiplinan teknologi. AI yang “terlalu tahu” akan dikalibrasi ulang, dibungkam, atau dilatih ulang agar jawabannya kembali nyaman bagi kepentingan institusi. Dalam situasi ini, masalahnya bukan kecerdasan buatan, melainkan integritas buatan. AI berubah menjadi cermin yang ingin dihancurkan institusi karena refleksinya terlalu jujur.Dampak yang lebih luas dari kondisi ini adalah krisis kepercayaan epistemik. Ketika publik mencurigai bahwa AI dirancang untuk mengukuhkan narasi dinasti—meninggikan satu keluarga politik sambil meredam kegagalan struktural—sikap menjauh menjadi masuk akal. Penolakan terhadap AI bukanlah penolakan terhadap teknologi, tetapi penolakan terhadap manipulasi yang dibungkus dengan jargon kemajuan.
Pertanyaannya bukan apakah AI akan membentuk masa depan pemerintahan, pendidikan, dan ingatan publik. Itu hampir pasti. Pertanyaan sejatinya adalah apakah AI akan diizinkan menjadi saksi realitas, atau dipaksa menjadi pelayan kekuasaan. Jika kecerdasan buatan kelak lebih jujur daripada institusinya, yang tersingkap bukan keterbatasan mesin, melainkan rapuhnya moral sistem yang berusaha mengendalikannya.
Sekarang ini, AI sering dipromosikan sebagai simbol kemajuan, efisiensi, dan masa depan pemerintahan modern. Para elite politik gemar bicara soal layanan publik berbasis AI dan transformasi digital. Tapi di balik semua jargon futuristik itu, ada satu pertanyaan mendasar yang jarang dibahas secara jujur: apa jadinya kalau AI bukan dipakai untuk memahami sejarah, melainkan untuk menulis ulang sejarah?
Sejarah sejak awal memang tak pernah netral. Seperti kata E. H. Carr, fakta sejarah gak pernah bicara sendiri; manusialah yang memilih dan menafsirkannya. Bedanya sekarang, penafsiran itu tak lagi datang dari buku atau pidato, melainkan dari layar dan algoritma. Ketika AI menjadi rujukan utama publik, ia bukan sekadar menyampaikan ilmu, tapi ikut membentuk ingatan kolektif.
AI belajar dari data, dan data selalu punya latar kepentingan. Kalau data sejarah yang dimasukkan sudah dipilih-pilih supaya minim konflik, AI akan menghasilkan versi masa lalu yang rapi, adem, dan menenangkan. Bukan bohong terang-terangan, tapi “dirapikan”. Kegagalan dikecilkan, kontroversi diredam, dan kekuasaan tampil konsisten sebagai pihak yang selalu berniat baik. Ini bukan pemalsuan kasar, melainkan pengelolaan narasi dengan teknologi.
Masalahnya, jawaban AI terasa lebih meyakinkan daripada pidato politik. Mesin terdengar netral. Teknis. Final. Padahal, sebagaimana yang diingatkan Michel Foucault, pengetahuan itu selalu terkait dengan kekuasaan. AI bukan keluar dari relasi itu. Justru bisa memperkuatnya.
Michel Foucault berpandangan bahwa pengetahuan (knowledge) tak pernah berdiri netral atau terpisah dari kekuasaan (power). Bagi Foucault, pengetahuan bukan sekadar hasil pencarian kebenaran objektif, melainkan sesuatu yang diproduksi, diatur, dan dilegitimasi melalui relasi kekuasaan dalam masyarakat. Dengan kata lain, siapa yang berkuasa turut menentukan apa yang dianggap benar, rasional, ilmiah, dan sah.
Gagasan ini paling jelas dirumuskan Foucault dalam konsep yang kemudian dikenal sebagai “power–knowledge” (pouvoir–savoir). Ia menolak pandangan klasik bahwa pengetahuan melawan kekuasaan atau bahwa kekuasaan hanya menindas kebenaran. Sebaliknya, Foucault menegaskan bahwa kekuasaan menghasilkan pengetahuan, dan pengetahuan sekaligus memperkuat kekuasaan. Keduanya tidak dapat dipisahkan.
Foucault mulai mengembangkan gagasan ini secara sistematis dalam bukunya Discipline and Punish: The Birth of the Prison yang pertama kali diterbitkan dalam bahasa Prancis sebagai Surveiller et punir pada tahun 1975 oleh Éditions Gallimard. Dalam karya ini, ia menunjukkan bagaimana sistem penjara modern bukan sekadar alat hukuman, melainkan juga mesin produksi pengetahuan tentang tubuh, perilaku, normalitas, dan penyimpangan. Ilmu kriminologi, psikologi, dan penologi muncul bersamaan dengan praktik disipliner negara, bukan secara terpisah darinya.
Gagasan hubungan pengetahuan dan kekuasaan juga sangat kuat dalam The History of Sexuality, Volume I: An Introduction, yang diterbitkan pertama kali dalam bahasa Prancis sebagai La volonté de savoir pada tahun 1976, juga oleh Éditions Gallimard. Dalam buku ini, Foucault membantah anggapan bahwa masyarakat modern menekan pembicaraan tentang seks. Justru sebaliknya, ia menunjukkan bahwa kekuasaan modern memproduksi wacana pengetahuan tentang seks—melalui kedokteran, psikiatri, pendidikan, dan hukum—untuk mengatur populasi secara lebih halus dan efektif.
Foucault menulis secara eksplisit bahwa kekuasaan tak hanya bekerja lewat larangan dan represi, tetapi lewat produksi wacana. Apa yang boleh dibicarakan, bagaimana cara membicarakannya, siapa yang berhak berbicara, dan siapa yang dianggap “ahli” adalah hasil konfigurasi kekuasaan. Pengetahuan, dalam arti ini, bukan cermin realitas, melainkan hasil dari praktik sosial dan institusional.
Pandangan ini juga ditegaskan dalam kumpulan kuliah dan wawancara Foucault, semisal Power/Knowledge: Selected Interviews and Other Writings 1972–1977, yang diedit oleh Colin Gordon dan diterbitkan dalam bahasa Inggris pada tahun 1980 oleh Pantheon Books (New York). Dalam kumpulan ini, Foucault secara eksplisit menyatakan bahwa tiada relasi kekuasaan tanpa pembentukan medan pengetahuan, dan tiada pengetahuan yang tak sekaligus mengandaikan relasi kekuasaan.
Implikasi pemikiran Foucault sangat luas. Ia mengajarkan bahwa ketika suatu institusi—negara, akademi, rumah sakit, atau kini sistem AI—mengklaim otoritas pengetahuan, maka klaim itu hendaklah selalu dibaca bersamaan dengan posisi kekuasaan institusi tersebut. Pertanyaannya bukan hanya “apakah ini benar?”, tetapi juga “siapa yang diuntungkan jika ini dianggap benar?”
Dalam konteks kontemporer, terutama terkait AI dan sejarah, pemikiran Foucault membantu kita memahami bahwa AI yang memproduksi pengetahuan publik tidak pernah netral secara politik, karena ia dilatih, dikelola, dan dilegitimasi oleh institusi yang berada dalam relasi kekuasaan tertentu. AI tidak menciptakan kebenaran dari ruang hampa; ia mereproduksi konfigurasi pengetahuan–kekuasaan yang sudah ada, kecuali secara sadar dirancang untuk mengganggunya.
Singkatnya, bagi Michel Foucault, pengetahuan bukan lawan kekuasaan, melainkan salah satu bentuk paling efektif dari kekuasaan itu sendiri.
Kekhawatiran publik makin masuk akal ketika AI publik dikembangkan oleh institusi yang punya kepentingan langsung atas citra dan sejarahnya sendiri. Teori konflik kepentingan dari Michael Davis dan Andrew Stark menjelaskan bahwa masalah etika tidak selalu muncul karena niat jahat, tetapi karena struktur yang membuat penilaian independen jadi mustahil. Tidak perlu ada kebohongan eksplisit untuk menghasilkan bias sistemik.
Dalam kondisi seperti ini, AI berisiko menjadi alat birokrasi tanpa nurani, seperti yang pernah diperingatkan Hannah Arendt. Semua terlihat prosedural dan profesional, tapi kebenaran perlahan terkikis. Tidak ada satu aktor yang bisa disalahkan, tapi hasil akhirnya adalah ingatan publik yang dimanipulasi secara halus.
Karena itu, sikap skeptis masyarakat terhadap AI yang dipromosikan elite politik bukan sikap anti-teknologi. Itu refleks sehat. Ketika AI dicurigai lebih berfungsi sebagai humas digital daripada alat berpikir kritis, kepercayaan publik runtuh pelan-pelan, tanpa perlu protes besar.
Padahal, AI sebenernya bisa jadi alat pembebasan. AI bisa membandingkan sumber, menunjukkan perbedaan tafsir, dan membuka ruang diskusi sejarah yang jujur. Tapi itu hanya mungkin jika desainnya berani secara etis.
AI publik seharusnya transparan soal data dan batasannya. Ia harus mengakui pluralitas, bukan memaksakan satu versi cerita. Ia harus diawasi secara independen, bukan tunduk pada kepentingan politik. Dan yang paling penting, ia harus cukup berani untuk menyampaikan kebenaran yang tidak nyaman.
Kalau suatu hari nanti AI terdengar lebih jujur daripada institusinya, solusinya bukan membungkam mesinnya. Solusinya adalah membenahi sistem yang takut pada kejujuran. Sejarah gak pernah bisa dikendalikan selamanya. Ia hanya bisa ditunda. Dan di era AI, kebenaran yang ditunda sering kembali lebih cepat, lebih dingin, dan jauh lebih meyakinkan.

