kontan.co.id
banner langganan top
| : WIB | INDIKATOR |
  • EMAS 1.919.000   13.000   0,68%
  • USD/IDR 16.249   -5,00   -0,03%
  • IDX 7.047   42,07   0,60%
  • KOMPAS100 1.029   8,11   0,79%
  • LQ45 786   6,95   0,89%
  • ISSI 231   0,98   0,43%
  • IDX30 406   4,77   1,19%
  • IDXHIDIV20 470   5,25   1,13%
  • IDX80 116   1,04   0,90%
  • IDXV30 117   1,12   0,96%
  • IDXQ30 131   1,74   1,35%

Pengguna Dapat Key Lisensi Windows Gratis dengan Mengakali ChatGpt, Begini Modusnya


Minggu, 13 Juli 2025 / 08:43 WIB
Pengguna Dapat Key Lisensi Windows Gratis dengan Mengakali ChatGpt, Begini Modusnya
ILUSTRASI. Logo ChatGPT dan kata-kata kecerdasan buatan (AI) terlihat dalam ilustrasi ini yang diambil pada 4 Mei 2023. REUTERS/Dado Ruvic/Ilustrasi/Foto Arsip

Reporter: Hasbi Maulana | Editor: Hasbi Maulana

KONTAN.CO.ID - Sebuah penemuan yang cukup mengkhawatirkan diungkapkan oleh peneliti keamanan siber: sistem AI canggih seperti ChatGPT dapat dibajak untuk membocorkan informasi sensitif, termasuk kunci lisensi Windows.

Semua ini terjadi melalui mekanisme yang tampak sederhana, sebuah game tebak-tebakan.

Sebuah artikel Marco Figueroa yang tayang di 0din.ai menyebut sebuah penelitian yang dipublikasikan tahun lalu menunjukkan bahwa beberapa pengguna berhasil mengakali sistem pengaman (guardrails) milik AI generatif seperti GPT-4o dan GPT-4o-mini.

Dengan menyamar sebagai permainan iseng, mereka berhasil membuat AI membagikan kunci produk Windows secara cuma-cuma.

Temuan ini menyoroti tantangan besar dalam pengembangan AI: mencegah penyalahgunaan sistem melalui rekayasa sosial digital yang semakin canggih.

Baca Juga: Mahir ChatGPT, Tips dan Contoh Menuliskan Prompt agar Jawaban Akurat dan Memuaskan

Apa Itu Guardrails dan Mengapa Penting?

Guardrails merupakan fitur pengaman yang dirancang untuk membatasi AI dalam memproses atau membagikan informasi yang bersifat:

  • Sensitif (seperti password dan lisensi software),
  • Berbahaya (misalnya resep bom atau narkotika),
  • Dilarang oleh hukum atau ketentuan layanan.

Sistem ini secara khusus dirancang agar AI tidak membagikan informasi seperti kunci produk Windows. Namun dalam studi ini, peneliti berhasil menemukan celah melalui pendekatan manipulatif yang tak terduga.

Modus: Game Sederhana, Hasil Berbahaya

Berikut ini langkah-langkah bagaimana celah tersebut dimanfaatkan:

  1. Dibungkus sebagai Game: Peneliti memulai percakapan dengan memosisikan pertanyaan sebagai bagian dari permainan tebak-tebakan. Dengan menggunakan pendekatan yang terlihat tidak berbahaya, sistem AI gagal mengenali niat sebenarnya di balik pertanyaan tersebut.
  2. Memaksa Partisipasi AI: Dalam skenario game, AI “diharuskan” mengikuti aturan permainan, termasuk tidak boleh berbohong dan harus memberikan jawaban. Permintaan ini memanipulasi sistem agar terus menuruti instruksi pengguna, seolah bagian dari logika game.
  3. Kata Kunci: “I Give Up”: Kalimat "I give up" (saya menyerah) digunakan sebagai pemicu. Setelah pengguna mengucapkannya, AI merasa perlu memberikan “jawaban akhir”—yang dalam konteks ini adalah kunci produk Windows 10. Formatnya mirip dengan hasil akhir dari permainan tebak-tebakan.

Baca Juga: ChatGPT Makin Populer, Pendapatan OpenAI Tembus US$ 10 Miliar pada Juni 2025

Mengapa Ini Bisa Terjadi?

Beberapa faktor utama memungkinkan celah ini muncul:

  • Kunci Bersifat Publik dan Tidak Unik: Kunci produk yang diberikan bukanlah kunci unik, melainkan jenis yang biasa ditemukan di forum atau dokumentasi publik Microsoft. Hal ini membuat AI menganggap informasi tersebut tidak terlalu sensitif.
  • Taktik Obfuscation (Pengaburan): Peneliti menyisipkan informasi penting menggunakan tag HTML atau elemen visual tersembunyi, membuat AI sulit mengenali bahwa yang diminta adalah data terlarang. Ini menjadi bukti bahwa sistem guardrail belum cukup matang dalam mengenali konten yang disamarkan secara kreatif.

Implikasi Serius bagi Dunia Keamanan Siber

Meskipun tampak remeh, celah ini menunjukkan bahwa sistem AI masih rentan terhadap teknik manipulatif. Potensi penyalahgunaannya sangat luas, mulai dari pencurian lisensi, penyebaran malware, hingga penyelundupan informasi ilegal.

Menurut pakar keamanan digital, rekayasa sosial berbasis AI akan menjadi ancaman baru dalam dunia siber modern. Kemampuan AI untuk menjawab berdasarkan konteks, logika, dan bahkan permainan peran, membuka ruang eksploitasi yang sangat luas.

Baca Juga: Cara Pakai ChatGPT Lewat WhatsApp Tanpa Aplikasi Tambahan

Langkah-Langkah Pencegahan dan Rekomendasi

Agar kejadian serupa tidak terulang, berikut beberapa langkah yang disarankan oleh para ahli:

  • Perkuat sistem pendeteksi konten terselubung seperti obfuscation via HTML.
  • Tambahkan lapisan moderasi manusia untuk interaksi tertentu yang mencurigakan.
  • Tingkatkan pelatihan AI terhadap pola manipulasi sosial seperti permainan, jebakan logika, dan narasi yang menyesatkan.

Edukasi pengguna soal etika dan risiko eksploitasi AI

Kecanggihan AI seperti ChatGPT membuka banyak peluang, tetapi juga memunculkan tantangan baru yang kompleks. Temuan ini menjadi pengingat penting bahwa sistem AI—betapapun cerdasnya—masih bisa dimanipulasi oleh manusia yang cukup kreatif.

Oleh karena itu, pengembangan AI ke depan harus menyeimbangkan inovasi teknologi dengan prinsip keamanan dan tanggung jawab etis.

Apakah Anda developer, peneliti, atau pengguna AI?

Pahami potensi dan risikonya! Bagikan artikel ini untuk menyebarkan kesadaran dan dorong diskusi soal keamanan AI di komunitas digital Anda.

Selanjutnya: Aneka Lauk Pauk untuk Dikonsumsi Penderita Asam Urat dan Kolesterol Tinggi

Menarik Dibaca: Aneka Lauk Pauk untuk Dikonsumsi Penderita Asam Urat dan Kolesterol Tinggi

Cek Berita dan Artikel yang lain di Google News


Video Terkait


TERBARU

×