Unbox.id – Tren penggunaan kecerdasan buatan (AI) secara umum diperkirakan akan semakin populer pada tahun 2024. Di sisi lain, terdapat potensi risiko penyalahgunaan teknologi ini. Menurut perusahaan keamanan siber Kaspersky, meluasnya penggunaan AI juga dapat digunakan untuk tujuan jahat. Pasalnya kini hampir semua orang bisa membuat teks, foto, dan video palsu hanya dalam beberapa menit, sebuah pekerjaan yang sebelumnya membutuhkan banyak waktu dan keterampilan. Menurut Kaspersky, melalui siaran pers resminya, hal ini berdampak nyata pada bidang keamanan siber. Pertama, mudahnya penjahat dunia maya membuat umpan phishing. AI telah mempermudah pembuatan email phishing, postingan media sosial, dan situs web palsu. Hingga saat ini, kata Kaspersky, penipuan semacam itu dapat diidentifikasi dari bahasa yang ceroboh dan banyak kesalahan ejaan, karena penipu tidak punya waktu untuk menulis dan mengoreksinya dengan benar. “Tetapi sekarang, dengan WormGPT dan model bahasa lain yang dioptimalkan untuk peretas, penyerang dapat menciptakan umpan yang jauh lebih beragam dan meyakinkan pada skala industri,” kata mereka.
Tips Hindari Penipuan AI
Untuk melindungi diri Anda dari penyalahgunaan AI untuk penipuan jenis ini, berikut beberapa hal yang harus dilakukan pengguna internet:
- Bersikaplah sangat kritis terhadap konten apa pun yang menstimulasi emosi, yang ditemui di media sosial, terutama dari orang yang tidak dikenal secara pribadi. Biasakan selalu memverifikasi fakta di saluran berita terkemuka dan situs pakar.
- Jangan mentransfer uang ke penggalangan dana atau kampanye amal apa pun tanpa terlebih dahulu melakukan pemeriksaan latar belakang penerima secara menyeluruh. Membuat cerita dan gambar yang memilukan sekarang sangatlah mudah.
- Instal perlindungan phishing dan penipuan di semua perangkat Anda, dan aktifkan semua opsi yang memeriksa tautan, situs web, email, dan lampiran. Hal ini akan mengurangi risiko mengklik tautan phishing atau mengunjungi situs web palsu.
- Aktifkan perlindungan iklan banner. Iklan berbahaya adalah tren lainnya pada tahun 2023 sampai 2024.
- Beberapa ahli mengantisipasi kemunculan sistem analisis dan pelabelan konten yang dihasilkan oleh AI pada tahun 2024. Namun, jangan berharap sistem tersebut dapat diterapkan dengan cepat atau universal, atau dapat diandalkan sepenuhnya. Bahkan jika solusi seperti itu benar-benar muncul, selalu periksa kembali informasi apa pun dari sumber yang terpercaya.
Risiko Penyalahgunaan Deepfake
Risiko lain dari teknologi AI adalah penyalahgunaan deepfake. Teknologi ini juga telah digunakan dalam skema phishing.
Seseorang yang mengaku sebagai “bos”, “anggota keluarga”, “rekan kerja”, atau orang lain yang Anda kenal mungkin akan menghubungi Anda untuk meminta bantuan segera atau membantu orang lain segera menghubungi Anda.
Skema ini terutama dimaksudkan untuk mengelabui korban agar secara sukarela mengirimkan uang kepada penjahat. Skenario yang lebih kompleks juga mungkin terjadi, seperti menargetkan karyawan perusahaan untuk mendapatkan kata sandi akses jaringan perusahaan.
Baca juga: Kecerdasan Buatan Bisa Pecahkan Password Dalam Hitungan Detik
Tips Hindari Penipuan dengan Deepfake
Untuk menghindari menjadi korban penyalahgunaan deepfake untuk penipuan, berikut yang harus Anda lakukan:
- Verifikasi panggilan tak terduga atau mengkhawatirkan tanpa panik. Jika seseorang yang Anda kenal baik menelepon, ajukan pertanyaan yang hanya bisa dijawab oleh orang tersebut. Jika seorang kolega menelepon tetapi permintaannya tampak aneh, misalnya, meminta Anda mengirim atau mengeja kata sandi, mengirim pembayaran, atau melakukan hal lain yang tidak biasa, hubungi kolega atau atasan lain untuk memeriksa ulang berbagai hal.
- Gunakan aplikasi pengenal penelepon untuk memblokir panggilan spam dan penipuan. Beberapa aplikasi ini tidak hanya berfungsi dengan panggilan telepon biasa tetapi juga dengan panggilan melalui messenger seperti WhatsApp.
Sumber & Foto: Dari berbagai sumber
Karya yang dimuat ini adalah tanggungjawab penulis seperti tertera, tidak menjadi bagian tanggungjawab redaksi unbox.id.