Kita suka yang praktis. Ponsel terbuka hanya dengan melirik, pintu kantor berdenting otomatis, kamera kota “mengenali” siapa yang melintas. Teknologi pengenalan wajah menjanjikan efisiensi—dan, jujur saja, ada daya magis di situ. Tetapi setiap janji kemudahan menyimpan ongkos yang tidak kasatmata: hak atas privasi, perlakuan setara, kebebasan bergerak dan berekspresi. Kalau ongkosnya dibiarkan menggunung, yang ditagih nanti bukan mesin, melainkan orang. Kita.
Ambil satu contoh yang sudah sering dikutip tetapi tetap relevan: Robert Williams, warga Detroit, ditangkap karena kecocokan wajah yang keliru. Hanya karena perangkat lunak “yakin”, aparat ikut yakin. Ada istilah untuk ini—automation bias, kecenderungan meniru keyakinan mesin. Yang lebih pahit, salah tangkap begitu tidak jatuh merata; kelompok yang rentan biasanya jadi sasaran utama. Dan luka sosialnya panjang, bahkan ketika kasusnya dibatalkan. Tetangga tetap ingat.
Lalu soal akurasi. Banyak produsen mengklaim “tingkat presisi 99%”. Di brosur. Dalam uji laboratorium. Dunia nyata, sayangnya, tidak seperti studio: sudut kamera kacau, pencahayaan buruk, wajah sebagian tertutup masker, dan—yang paling sensitif—perbedaan demografis. Evaluasi independen seperti FRVT (NIST) pernah menunjukkan selisih kinerja antar-ras dan gender pada berbagai algoritma. Ada perbaikan di model tertentu, benar, namun jarang serata klaim promosi. Artinya apa? Bukan sekadar bug teknis. Ini problem struktural yang berkelindan dengan sejarah panjang bias dalam data—siapa yang terwakili, siapa yang tidak, dan bagaimana “normal” didefinisikan.
Masalah berikutnya lebih senyap: pengawasan massal yang membuat ruang publik berubah rasa. Kamera dengan pengenalan wajah real-time di persimpangan atau stadion mengubah “aku bebas berjalan” menjadi “aku sedang dicatat”. Orang tetap bisa berdemonstrasi, bisa, tetapi dengan rasa waswas—yang dalam teori kebebasan berekspresi dikenal sebagai chilling effect. Kita pernah melihat pengadilan di Inggris menilai penerapan live facial recognition oleh kepolisian setempat melanggar hak privasi dan kerangka hukumnya timpang. Putusan seperti ini bukan sekadar soal prosedur; ia menegaskan prinsip tua namun penting: pengawasan harus perlu dan proporsional, bukan “siapa tahu berguna”.
Ada juga perkara hulu: dari mana wajah-wajah itu dikumpulkan? Tahun-tahun belakangan, publik mengetahui praktik pengumpulan (bahkan pengerukan) foto wajah dari web dan CCTV untuk melatih basis data komersial tanpa persetujuan jelas. Otoritas perlindungan data di Eropa sudah menindak beberapa pelaku—pertanda bahwa model “ambil dulu, urusan izin belakangan” tidak bisa lagi berlindung di balik jargon inovasi. Karena data biometrik bukan sekadar angka; ia tubuh yang dibekukan ke dalam piksel.
Regulasi bergerak, meskipun—ya, pelan dan tak merata. Uni Eropa melalui AI Act membatasi keras identifikasi biometrik jarak jauh di ruang publik dan melarang pengelompokan biometrik berdasar kategori sensitif. Sejumlah kota di AS bahkan memilih rute lebih tegas: melarang penggunaan pengenalan wajah oleh dinas kota. Bukan anti-teknologi, sebenarnya; lebih ke “tolong bukti risikonya dikendalikan dulu”. Kebijakan lokal semacam ini menarik karena bottom-up: masyarakat setempat merasa kenyamanan tidak sebanding dengan harga yang harus dibayar.
Di Indonesia, kita punya payung: UU Pelindungan Data Pribadi (2022). Secara prinsip, data biometrik masuk kategori spesifik—perlindungan ekstra, dasar pemrosesan yang jelas, transparansi, hak akses dan penghapusan, serta keberatan atas pengambilan keputusan otomatis. Itu fondasi penting. Namun fondasi bukan rumah: implementasi teknis, audit independen, dan konsistensi penegakan hukum adalah dinding, atap, jendela. Di saat bersamaan, rencana pemanfaatan CCTV berfitur pengenalan wajah untuk keamanan kota terus bergulir. Tujuannya mulia, siapa yang menolak kota aman? Tapi pagar-pagar etis dan hukum harus didirikan duluan. Lebih aman begitu, dan jujur—lebih adil.
Kadang orang bertanya: “Kalau memang berbahaya, mengapa ponsel dengan Face ID terasa baik-baik saja?” Pertanyaan wajar. Jawabannya ada pada konteks dan arsitektur. Verifikasi perangkat pribadi biasanya dilakukan on-device, tidak mengalir ke server, dengan skema template yang terlindungi; itu berbeda sekali dengan sistem identifikasi massal yang memindai kerumunan untuk mencari satu wajah. Mirip seperti membandingkan kunci rumah dan kamera tetangga yang merekam semua pintu di komplek—sama-sama “pakai kamera”, iya, tetapi implikasinya jauh.
Lalu, apa yang sebaiknya jadi rambu? Tidak perlu membuat daftar yang rapi—hidup jarang rapi—namun beberapa prinsip tampaknya non-negotiable:
- Jeda dulu untuk yang real-time. Moratorium pemindaian biometrik real-time di ruang publik, kecuali dalam situasi betul-betul luar biasa—dengan otorisasi yudisial, batas cakupan sempit, durasi pendek. Kalau tidak ada uji perlu-proporsional, jangan jalan.
- Tidak ada penangkapan bermodal wajah saja. Kecocokan algoritma bukan bukti; ia petunjuk yang mentah. Harus ada verifikasi manusia dan bukti independen lainnya. Titik.
- Uji lokal, bukan brosur. Tes pra-implementasi dengan data dan kondisi setempat: pencahayaan jalan, sudut kamera, distribusi demografi. Audit bias berkala, dan hasil ringkasnya dipublikasikan. Malu sebentar lebih baik daripada rusak lama.
- Larangan pengumpulan tanpa persetujuan dan batas retensi yang jelas. Wajah bukan tambang umum. Jika tujuan beralih (function creep), harus ada mekanisme uji kepatutan baru—bukan otomatis “boleh”.
- Transparansi yang masuk akal. Di mana sistem dipasang? Siapa vendornya? Akurasinya berapa di kondisi nyata? Bagaimana warga mengajukan keberatan atau ganti rugi? Tahu dulu baru percaya; bukan kebalik.
Ada satu catatan yang mudah terlewat: teknologi bukan takdir. Kita boleh memilih batas, menuntut bukti manfaat, mengakui risiko, lalu berkata “tidak” jika syarat tidak terpenuhi. Bahkan untuk hal yang tampak keren sekalipun. Sejarah pengenalan sidik jari dulu pun—sekilas kilas balik—melewati fase perdebatan, standarisasi, dan pengadilan. Bedanya, wajah lebih sulit diganti. Anda bisa mengganti password; Anda tidak bisa mengganti muka.
Pada akhirnya, tujuan pengelolaan teknologi adalah demokrasi yang tetap bernapas lega, bukan kota yang rapi tetapi bungkam. Pengenalan wajah bisa membantu keamanan pada skenario tertentu, tentu bisa, namun justru karena itu kita wajib cerewet soal pagar-pagarnya. Jika prinsip HAM diletakkan di depan, kita masih punya ruang untuk mengatakan: cukup, sampai di sini. Kalau tidak, kenyamanan sesaat hari ini berubah jadi normal baru yang besok—entah bagaimana—sudah terlalu terlambat untuk diprotes.