Penipuan suara AI: Cara mencegah dan melindungi

Penipuan suara AI menjadi lebih umum dan bisa sangat meyakinkan karena sepertinya Anda sedang berbicara dengan orang yang Anda cintai. Sekarang kami memiliki laporan mendalam yang menggali cara kerja kloning suara AI, seberapa umum penipuan itu, kemungkinan jatuh untuk satu, biaya rata-rata, ditambah cara mencegah dan melindungi dari penipuan suara AI.

Pada bulan April, kami melihat beberapa contoh dunia nyata penipuan AI generasi berikutnya yang cukup menakutkan. Salah satunya menggunakan spoofing panggilan sehingga orang yang dicintai muncul di ponsel korban sebagai orang yang menelepon. Yang lain menggunakan tiruan suara AI untuk mencoba dan memeras uang tebusan dari seorang ibu untuk membebaskan putrinya – yang tidak diculik.

Seperti yang saya catat di bagian atas, kemungkinan hanya masalah waktu sebelum penyerang menggabungkan kedua spoofing panggilan dengan klon suara AI.

Sekarang McAfee telah dirilis laporan yang mendalam pada penipuan suara AI untuk membantu membangun kesadaran akan ancaman dan beberapa cara mudah untuk mencegah dan melindunginya.

Bagaimana cara kerja kloning suara AI?

McAfee menyoroti penipuan suara AI adalah remix dari “penipuan penipu” yang telah ada sejak lama, tetapi bisa jauh lebih meyakinkan. Seringkali itu melibatkan scammer menggunakan suara orang yang dicintai dan meminta uang untuk keadaan darurat atau dalam beberapa kasus berpura-pura menahan orang yang dicintai untuk tebusan.

Karena alat klon suara AI sangat murah dan tersedia, cepat dan mudah bagi pihak jahat untuk membuat klon suara. Dan cara mereka mendapatkan sampel audio untuk melakukannya adalah dari orang-orang yang membagikan suara mereka di media sosial. Dan semakin banyak Anda membagikan suara Anda secara online, semakin mudah bagi pelaku ancaman untuk menemukan dan mengkloning suara Anda.

Penipuan suara AI mencegah

Seberapa umum penipuan suara AI?

Meskipun kami baru saja mulai melihat beberapa kisah dunia nyata dalam berita tentang penipuan suara AI, studi McAfee menemukan bahwa hal itu menjadi sangat umum.

Rata-rata global menunjukkan 25% orang yang disurvei mengalami penipuan AI atau seseorang yang mereka kenal.

Itu lebih tinggi di AS sebesar 32% dengan India yang mengalami masalah terbesar dengan penipuan suara AI pada 47% responden mengatakan mereka atau seseorang yang mereka kenal telah terpengaruh.

Penipuan suara AI seberapa umum

Seberapa akurat itu?

Penelitian McAfee menemukan bahwa alat kloning suara menghasilkan akurasi hingga 95%.

Dalam kasus penipuan kloning suara AI yang dilaporkan secara publik, para korban menceritakan bagaimana suara itu terdengar “persis seperti” orang yang dikloning. Dalam satu kasus yang sangat mengerikan, di mana penjahat dunia maya meminta uang tebusan untuk penculikan palsu, sang ibu mengatakan itu “sepenuhnya suaranya” dan bahwa “itu adalah infleksinya.” Sekarang lebih sulit dari sebelumnya untuk membedakan yang asli dari yang palsu, jadi orang perlu berasumsi bahwa mereka tidak selalu dapat mempercayai apa yang mereka lihat dan dengar.

Seberapa sering dan berapa kerugian yang dialami korban?

  • Sedihnya, penelitian McAfee menunjukkan bahwa 77% korban penipuan suara AI kehilangan uang
  • Lebih dari sepertiga kehilangan lebih dari $1.000
  • 7% ditipu di antaranya $5.000 dan $15.000
  • Di AS, angka itu tertinggi dengan 11% kalah antara $5.000–$15.000

Secara keseluruhan, penipuan penipu diyakini telah mencuri $2,6 miliar pada tahun 2022.

Bagaimana mencegah dan melindungi dari penipuan AI

Seperti saya tulis sebelumnyadan McAfee juga membagikan, tiga cara utama untuk mencegah dan melindungi dari penipuan suara AI adalah:

  • Batasi seberapa banyak Anda berbagi suara dan/atau video secara online dan/atau atur akun media sosial Anda menjadi pribadi, bukan publik
  • Ajukan pertanyaan tantangan atau bahkan dua jika Anda mendapat panggilan yang mencurigakan – sesuatu yang hanya dapat dijawab oleh orang yang Anda kasihi (mis. nama boneka binatang masa kecil Anda, dll.)
    • Ingat, jangan ajukan pertanyaan yang jawabannya bisa ditemukan di media sosial, online, dll.
  • Izinkan nomor tak dikenal masuk ke pesan suara dan telepon atau kirim SMS langsung dari ponsel Anda jika Anda mengkhawatirkannya

Berikut rekomendasi lengkap McAfee:

  • Pikirkan sebelum Anda mengklik dan berbagi—siapa yang ada di jaringan media sosial Anda? Apakah Anda benar-benar mengenal dan memercayai koneksi Anda? Berhati-hatilah dengan apa yang Anda bagikan di Facebook, YouTube, Instagram, dan TikTok. Pertimbangkan untuk membatasi postingan Anda hanya untuk teman dan keluarga melalui pengaturan privasi. Semakin luas koneksi Anda, semakin besar risiko Anda membuka diri saat membagikan konten tentang diri Anda.
  • Layanan pemantauan identitas dapat membantu mengingatkan Anda jika informasi identitas pribadi Anda tersedia di Web Gelap. Pencurian identitas sering kali menjadi awal mula suara AI dan penipuan bertarget lainnya. Kendalikan data pribadi Anda untuk menghindari penjahat dunia maya yang dapat berpura-pura menjadi Anda. Layanan pemantauan identitas memberikan lapisan perlindungan yang dapat melindungi identitas Anda.
  • Dan empat cara untuk menghindari penipuan suara AI secara langsung, termasuk:
    • 1. Tetapkan ‘kata sandi’ dengan anak-anak, anggota keluarga, atau teman dekat tepercaya yang hanya mereka yang tahu. Buatlah rencana untuk selalu menanyakannya jika mereka menelepon, mengirim SMS, atau email untuk meminta bantuan, terutama jika mereka lebih tua atau lebih rentan.
    • 2. Selalu pertanyakan sumbernya—Jika itu panggilan, SMS, atau email dari pengirim yang tidak dikenal, atau bahkan jika itu dari nomor yang Anda kenal, hentikan, jeda, dan pikirkan. Mengajukan pertanyaan terarah dapat membuat scammer. Misalnya, “Bisakah Anda memastikan nama putra saya?” atau, “Kapan ulang tahun ayahmu?” Hal ini tidak hanya mengejutkan penipu, tetapi mereka mungkin juga perlu membuat kembali respons baru, yang dapat menambahkan jeda yang tidak wajar ke dalam percakapan dan menimbulkan kecurigaan.
    • 3. Jangan biarkan emosi mengambil alih. Penjahat dunia maya mengandalkan hubungan emosional Anda dengan orang yang mereka tiru untuk mendorong Anda bertindak. Ambil langkah mundur sebelum merespons. Apakah itu benar-benar terdengar seperti mereka? Apakah ini sesuatu yang mereka minta dari Anda? Tutup telepon dan hubungi orang tersebut secara langsung atau coba verifikasi informasinya sebelum menjawab.
    • 4. Pertimbangkan apakah akan menjawab panggilan tak terduga dari nomor telepon tak dikenal. Biasanya merupakan saran yang baik untuk tidak menjawab panggilan dari orang asing. Jika mereka meninggalkan pesan suara, ini memberi Anda waktu untuk merenung dan menghubungi orang tersayang secara mandiri untuk memastikan keamanan mereka.

Untuk lebih jelasnya, lihat laporan lengkapnya. Anda juga dapat membaca lebih lanjut tentang penipuan suara AI di situs web FTC.

Gambar atas melalui McAfee

FTC: Kami menggunakan tautan afiliasi otomatis yang menghasilkan pendapatan. Lagi.

JANGAN LEWATKAN!
Dapatkan Penawaran Eksklusif 🤑

Berlangganan Tutor Tekno update terbaru, penawaran rahasia dan promosi.

Invalid email address

Leave a Reply

Your email address will not be published. Required fields are marked *

Buletin dua kali seminggu yang menampilkan berita peralatan, panduan cara kerja, dan rekomendasi tentang laptop, headphone, gadget rumah tangga, dan lainnya.
Dengan mendaftar, Anda menyetujui Perjanjian Pengguna kami (termasuk pengabaian gugatan kelompok dan ketentuan arbitrase), Kebijakan Privasi & Pernyataan Cookie kami, dan untuk menerima email terkait pemasaran dan akun dari TeknoTutor. Anda dapat berhenti berlangganan kapan saja.