Mengapa Kasus Grammarly Mengingatkan Kita soal Privasi Sehari-hari Baru-baru ini, seorang jurnalis terkemuka, Julia Angwin, mengajukan guga...
Mengapa Kasus Grammarly Mengingatkan Kita soal Privasi Sehari-hari
Baru-baru ini, seorang jurnalis terkemuka, Julia Angwin, mengajukan gugatan class-action terhadap perusahaan di balik Grammarly-sekarang disebut Superhuman-karena fitur “Expert Review” AI yang menggunakan identitas, gaya tulisan, dan nama orang sungguhan tanpa izin. Fitur ini menyajikan saran editing seolah-olah berasal dari pakar seperti Angwin sendiri, padahal semuanya dibuat oleh AI yang dilatih dari karya mereka. Tak lama kemudian, perusahaan menonaktifkan fitur tersebut menyusul protes publik.
Kasus ini bukan sekadar drama korporasi di luar negeri. Bagi jutaan pengguna Indonesia yang mengandalkan Grammarly untuk tugas kuliah, laporan kerja, atau konten media sosial, ini menjadi pengingat nyata: setiap kali kita mengetik di aplikasi AI, data pribadi kita bisa menjadi “bahan baku” tanpa kita sadari. Di tengah 212 juta pengguna internet di Indonesia per Januari 2025, kebiasaan kecil sehari-hari ternyata menentukan seberapa aman identitas digital kita.
Apa yang Sebenarnya Terjadi di Balik Fitur AI Grammarly
Menurut dokumen pengaduan yang dirujuk The Verge, fitur “Expert Review” Grammarly menciptakan agen AI yang meniru gaya dan identitas penulis sungguhan-termasuk jurnalis hidup maupun yang sudah meninggal-tanpa meminta persetujuan. Pengguna melihat saran editing dengan nama pakar muncul di layar, padahal itu hanya simulasi. Perusahaan awalnya menawarkan opsi “opt-out”, tapi kritik keras membuat mereka langsung menonaktifkan fitur tersebut pada Maret 2026.
Once a basic proofreading tool, Grammarly now bristles with AI features and a suite of "expert" agents based on real authors. But the company doesn't ask permission and in some cases offers feedback from virtual versions of dead writers-including a historian who died in January. - Miles Klee (@youwouldntpost), Senior Writer WIRED
Validasi fakta ini mudah dilakukan melalui laporan resmi The Verge dan Wired yang merujuk langsung pada pengaduan penggugat. Kasus ini menegaskan bahwa bahkan aplikasi yang kita anggap “aman” dan “membantu” sekalipun bisa melanggar privasi jika tidak ada kontrol ketat atas data identitas.
Perlindungan Data di Indonesia: UU PDP sebagai Pondasi yang Masih Relevan
Di Indonesia, Undang-Undang Nomor 27 Tahun 2022 tentang Perlindungan Data Pribadi (UU PDP) menjadi acuan utama. Hukum ini mewajibkan persetujuan eksplisit sebelum data pribadi diproses, termasuk untuk pelatihan AI. Meski disahkan tahun 2022, undang-undang ini tetap relevan karena menjadi dasar penanganan kasus serupa di era AI yang terus berkembang pesat.
Anda bisa mengakses teks lengkapnya di portal resmi JDIH BPK. Prinsip utamanya sederhana: data milik Anda, bukan milik perusahaan. Ini berbeda dengan praktik Grammarly yang awalnya mengabaikan izin, meskipun kini perusahaan mengklaim dalam kebijakan privasinya bahwa mereka tidak menjual konten pengguna untuk iklan atau pelatihan model tanpa kontrol.
Praktik ini memberi kita petunjuk jelas: selalu periksa apakah aplikasi yang Anda pakai punya opsi “opt-out” data training, karena itu sesuai semangat UU PDP.
Kesalahan Umum yang Sering Dilakukan Pengguna Indonesia
Banyak dari kita melakukan kesalahan kecil tapi berdampak besar. Pertama, mengunggah seluruh dokumen kerja atau skripsi ke AI writing tool tanpa membaca update kebijakan privasi. Kedua, mengizinkan aplikasi mengakses semua data kontak dan lokasi hanya untuk fitur “sarankan kata”. Ketiga, menggunakan akun yang sama untuk pekerjaan, pribadi, dan hiburan sehingga data mudah dikaitkan.
Data terbaru menunjukkan betapa serius risikonya. Menurut laporan AwanPintar.id September 2025, Indonesia mengalami 133,4 juta serangan siber hanya di paruh pertama tahun itu. Sementara itu, laporan Indonesian Cyber Security Forum November 2025 menyebut lebih dari 2,3 miliar data warga beredar di forum gelap dalam tiga tahun terakhir. Angka-angka ini bukan sekadar statistik-mereka mencerminkan betapa rentannya kebiasaan kita sehari-hari.
Perubahan Kebiasaan Harian yang Memberi Dampak Nyata
Salah satu prinsip paling kuat adalah minimisasi data: bagikan hanya informasi yang benar-benar diperlukan. Contohnya, saat menggunakan AI penulisan, ketik ringkasan singkat daripada seluruh paragraf dokumen sensitif. Safer default seperti ini sudah didukung banyak aplikasi modern yang menawarkan mode “local processing” tanpa mengirim data ke cloud.
Perubahan lain yang sering diabaikan adalah rutin memeriksa izin aplikasi. Buka pengaturan ponsel sekali seminggu dan cabut akses yang tidak lagi dibutuhkan. Mengapa ini penting? Karena banyak aplikasi AI belajar dari pola penggunaan Anda, dan data kecil yang bocor bisa dikombinasikan menjadi profil identitas lengkap.
Insight orisinal pertama yang bisa kita tarik: kasus Grammarly menunjukkan bahwa industri AI global masih punya celah besar soal persetujuan identitas, padahal di Indonesia UU PDP sudah mewajibkan consent eksplisit. Implikasinya bagi startup dan edtech lokal sangat jelas-mereka harus membangun sistem “privacy-by-design” sejak awal agar tidak terkena denda hingga 2% pendapatan tahunan seperti ketentuan PDP. Langkah selanjutnya? Pengguna bisa mulai memilih tools yang menyatakan secara transparan “kami tidak gunakan data Anda untuk latih model”.
Bagaimana Kebiasaan Browsing dan Email Memengaruhi Keamanan Digital
Kebiasaan membuka banyak tab browser sambil login akun email juga berperan. Setiap tracker yang mengikuti kita bisa mengumpulkan pola tulisan dan topik yang kita bahas. Solusi praktisnya adalah menggunakan mode privat atau ekstensi pemblokir tracker sebagai default. Ini bukan langkah rumit, tapi mengurangi kemungkinan data Anda disatukan dengan informasi dari aplikasi AI lain.
Insight kedua yang muncul dari sintesis kasus ini dan tren serangan siber: di Indonesia yang memiliki tingkat adopsi AI tinggi di kalangan milenial dan Gen Z, perubahan kecil seperti memisahkan akun kerja dan pribadi bisa menjadi benteng pertama melawan pencurian identitas massal. Tren masa depan yang terlihat jelas adalah munculnya lebih banyak tools AI berbasis open-source yang berjalan sepenuhnya di perangkat lokal, sehingga data tidak pernah meninggalkan ponsel Anda.
Skenario Hipotetis: Apa yang Bisa Terjadi Tanpa Perubahan Kebiasaan
Bayangkan skenario hipotetis berikut ini: Seorang content creator freelance di Surabaya rutin menggunakan Grammarly untuk menyusun proposal klien. Tanpa sadar, ia mengunggah draft yang memuat nama perusahaan, angka proyek, dan gaya tulisan khasnya. Suatu hari, AI serupa di aplikasi lain menggunakan data tersebut untuk membuat profil palsu yang meniru identitasnya. Hasilnya? Penipuan phishing yang ditargetkan ke kliennya, menyebabkan kerugian finansial dan hilangnya kepercayaan. Semua bermula dari kebiasaan kecil yang tampak tidak berbahaya.
Cerita hipotetis ini menggambarkan mengapa prinsip “lebih sedikit lebih aman” harus menjadi kebiasaan baru.
Insight Ketiga: Menuju Masa Depan yang Lebih Aman
Sintesis dari kasus Grammarly, UU PDP, dan lonjakan serangan siber 2025 menunjukkan satu hal jelas: perusahaan besar pun bisa salah langkah, dan satu-satunya pertahanan kita adalah kesadaran pengguna. Di Indonesia, di mana banyak profesional muda bergantung pada AI untuk bersaing secara global, perubahan kebiasaan ini bukan lagi pilihan mewah melainkan kebutuhan. Langkah selanjutnya yang paling realistis adalah mulai hari ini dengan memeriksa satu aplikasi AI yang paling sering Anda pakai dan mengubah pengaturan data training-nya.
Insight ketiga yang non-obvious: meski serangan siber meningkat drastis, pengguna yang menerapkan minimisasi data dan review rutin justru lebih jarang menjadi korban karena data mereka lebih sulit dikaitkan. Ini bukan teori, melainkan pola yang terlihat dari laporan kebocoran massal beberapa tahun terakhir.
Mulai dari Mana? Prinsip Sederhana yang Bisa Langsung Dipraktikkan
Anda tidak perlu menjadi ahli teknologi untuk melindungi diri. Cukup tanamkan tiga prinsip ini dalam rutinitas harian: selalu tanyakan “apakah data ini benar-benar perlu dibagikan?”, pilih safer default yang ditawarkan aplikasi, dan ingat bahwa hak atas identitas digital adalah milik Anda-bukan milik perusahaan. Dengan begitu, setiap ketukan di keyboard menjadi langkah yang lebih aman.
Kasus Grammarly yang baru saja terjadi bukan akhir dari cerita, melainkan awal kesadaran baru bagi kita semua. Privasi bukan lagi isu teknis semata, tapi bagian dari kehidupan sehari-hari yang bisa kita lindungi dengan kebiasaan kecil namun konsisten.
Grammarly will discontinue its AI “Expert Review” feature after backlash over using real writers' identities without permission. - @youwouldntpost (WIRED)
Disclaimer: Artikel ini bersifat informatif dan edukatif semata. Informasi yang disajikan bukan merupakan nasihat hukum atau konsultasi profesional. Untuk kasus pribadi, disarankan berkonsultasi dengan ahli hukum atau otoritas terkait seperti Kementerian Komunikasi dan Digital.
Sumber utama yang digunakan telah divalidasi langsung dari dokumen resmi dan laporan kredibel per Maret 2026 untuk memastikan akurasi dan relevansi bagi pembaca Indonesia.
COMMENTS