https://jateng.times.co.id/
Opini

Berpikir Kritis di Era Kecerdasan Buatan

Rabu, 24 September 2025 - 14:07
Berpikir Kritis di Era Kecerdasan Buatan Rusydi Umar, Dosen FTI, Universitas Ahmad Dahlan.

TIMES JATENG, YOGYAKARTA – Sebagai akademisi yang lama berkutat dengan kata-kata dan fakta, saya sering terpikir: teknologi yang kini kita puji, model bahasa besar atau LLM, sesungguhnya adalah pisau bermata dua. Di satu sisi, ia membuka jalan pintas intelektual yang menakjubkan: menyusun ringkasan, membantu redaksi merumuskan sudut pandang, atau menguji hipotesis awal yang kemudian bisa dikembangkan. 

Di sisi lain, LLM tidak pernah menggantikan kewajiban paling dasar jurnalistik dan ilmiah: verifikasi. Mengapa? Karena mesin ini bukan orakel kebenaran; ia adalah statistik bahasa yang sangat mahir menebak kata berikutnya.

Large Language Model (LLM) sendiri sederhananya adalah model kecerdasan buatan yang dilatih dengan jutaan bahkan miliaran data teks agar mampu memahami dan menghasilkan bahasa seperti manusia. 

Produk yang kini banyak dikenal masyarakat hanyalah salah satu perwujudan dari teknologi ini. ChatGPT, Copilot, Grok, DeepSeek, dan berbagai layanan serupa adalah contoh nyata dari LLM yang kini hadir dalam kehidupan sehari-hari. 

Mereka bisa menjawab pertanyaan, menulis teks, membantu coding, hingga menjadi asisten personal, tetapi tetaplah harus dipahami bahwa pada dasarnya mereka hanya mesin prediksi kata yang bekerja berdasarkan pola data yang pernah dipelajari.

LLM dilatih pada korpus teks masif dan belajar pola bahasa, bukan kebenaran faktual. Ketika kita meminta ringkasan atau jawaban, yang muncul adalah respons yang paling “mungkin” menurut model, bukan jawaban yang sudah diverifikasi kebenarnya. 

Inilah akar fenomena yang kini kerap disebut “hallucination”: model bisa menyusun nama jurnal, sitasi, atau kutipan yang tampak meyakinkan tetapi sesungguhnya tidak ada. 

Ia bukan berdusta dengan niat; ia hanya menjahit kata berdasarkan pola yang pernah dilihat. Maka, bila kita menerimanya mentah-mentah, kita berisiko menyebarkan narasi palsu yang berpakaian fakta.

Selain itu, model ini merefleksikan apa yang dominan dalam data latihnya. Jika ruang publik dipenuhi disinformasi, bias, atau narasi mayoritas yang keliru, model akan cenderung mengulanginya. Ada upaya untuk “memoles” perilaku LLM melalui pelatihan tambahan yang melibatkan umpan balik manusia (RLHF) dan lapisan keamanan yang menyaring konten berbahaya. 

Namun upaya itu bersifat mitigasi, bukan obat mujarab. RLHF mengarahkan model agar lebih cocok bagi preferensi manusia ramah, sopan, tampak masuk akal tetapi tidak selalu menjamin kebenaran faktual. Dengan kata lain, bahkan LLM yang “terlatih baik” masih dapat berasumsi sendiri ketika data tidak menuntun pada jawaban pasti.

Apa implikasinya bagi kita, khususnya para jurnalis, akademisi, dan pembaca kritis? Pertama, perlakukan LLM sebagai asisten, bukan otoritas. Jangan mengutip jawaban mesin sebagai sumber tunggal. Jika model memberikan rujukan, perlakukan itu sebagai petunjuk: cek asal rujukan, buka dokumen asli, pastikan nama penulis dan tahun cocok, dan baca konteksnya. 

Ketika model menyodorkan statistik, minta sumber data mentahnya; lalu periksa data itu sendiri. Prinsip verifikasi yang sama yang kita pakai terhadap sumber manusia mesti tetap berlaku pada produk kecerdasan buatan.

Kedua, kembangkan kebiasaan bertanya yang kritis ketika berinteraksi dengan LLM. Alih-alih menanyakan “Apa faktanya?”, ajukan pertanyaan yang mengharuskan verifikasi: “Sebutkan tiga sumber primer yang mendukung klaim ini dan ringkas temuan mereka.” 

Minta model menjelaskan tingkat ketidakpastian atau kondisi di mana jawaban itu tidak berlaku. Jika model enggan atau memberikan jawaban samar, itu sinyal untuk berhenti dan memeriksa lebih jauh.

Ketiga, jangan mengandalkan satu model saja. Perbandingan jawaban dari beberapa model atau versi yang berbeda bisa membantu mengungkap inkonsistensi. 

Jika ada perbedaan signifikan, perlakukan itu sebagai red flag: ada informasi yang belum stabil atau data latih yang kontras. Pendekatan multiview ini mirip prinsip cross-check dalam jurnalistik: kebenaran yang kuat biasanya konsisten melintasi sumber yang kredibel.

Keempat, waspadai penggunaan LLM dalam konteks berisiko tinggi: kesehatan, hukum, keuangan, atau keputusan publik. Dalam domain ini, kesalahan bukan sekadar memalukan; bisa berakibat nyawa, uang, atau hak asasi. 

Jika LLM dipakai, pastikan ada verifikasi pakar, dokumentasi sumber, dan catatan audit tentang bagaimana keputusan dibuat. Teknologi boleh membantu mempercepat analisis, tetapi tanggung jawab akhir tetap manusia.

Kelima, kita perlu mendorong transparansi dan pendidikan publik. Perusahaan pembuat LLM sebaiknya membuka informasi tentang batas kemampuan model, jenis data latih yang dipakai, dan mekanisme mitigasi yang diimplementasikan. 

Sudah sewajarnya masyarakat mendapat literasi digital: memahami apa itu probabilitas dalam jawaban mesin, apa itu hallucination, dan bagaimana memverifikasi. Tanpa literasi, publik mudah tersesat oleh jawaban yang terasa meyakinkan namun rapuh faktanya.

Akhirnya, ada dimensi etis dan kolektif. Kita tidak hanya mengoreksi mesin; kita juga memperbaiki ekosistem informasi yang melatari mesin itu. 

Mengurangi disinformasi, memperkuat akses ke data primer, dan memajukan budaya verifikasi adalah pekerjaan yang tidak bisa diserahkan sepenuhnya pada algoritme. Teknologi terbaik sekalipun butuh komunitas pengguna yang kritis dan institusi yang bertanggung jawab.

LLM menawarkan kemudahan yang luar biasa, tetapi kemudahan itu tidak boleh mengaburkan kebiasaan paling dasar dari pekerjaan intelektual: skeptisisme yang teredukasi, verifikasi yang sabar, dan tanggung jawab etis. 

Gunakanlah model sebagai alat, bukan sebagai hakim. Dengan demikian, kita memanen manfaat kecerdasan buatan tanpa menyerahkan kedaulatan kebenaran kita pada statistik semata.

***

*) Oleh : Rusydi Umar, Dosen FTI, Universitas Ahmad Dahlan.

*) Tulisan Opini ini sepenuhnya adalah tanggungjawab penulis, tidak menjadi bagian tanggungjawab redaksi timesindonesia.co.id

*) Kopi TIMES atau rubik opini di TIMES Indonesia terbuka untuk umum. Panjang naskah maksimal 4.000 karakter atau sekitar 600 kata. Sertakan riwayat hidup singkat beserta Foto diri dan nomor telepon yang bisa dihubungi.

*) Naskah dikirim ke alamat e-mail: [email protected]

*) Redaksi berhak tidak menayangkan opini yang dikirim.

Pewarta : Hainor Rahman
Editor : Hainorrahman
Tags

Berita Terbaru

icon TIMES Jateng just now

Welcome to TIMES Jateng

TIMES Jateng is a PWA ready Mobile UI Kit Template. Great way to start your mobile websites and pwa projects.