Follow Us

facebookyoutube_channeltwitter

Waspada, Penipuan Berkedok Suara Samaran yang Dibuat AI Marak Terjadi!

Khoiruddin Yusup - Selasa, 07 Maret 2023 | 19:30
Ilustrasi penipu yang menggunakan AI voice generator untuk menipu korbannya.
TechSpot

Ilustrasi penipu yang menggunakan AI voice generator untuk menipu korbannya.

Nextren.com - Belakangan Artificial Intelligence (AI) dikembangkan secara masif, namun ternyata ada efek yang cukup menghawatirkan dari tren ini.

Mengutup dari laporan The Washington Post, salah satu teknologi AI yang mampu membuat suara samaran ternyata telah banyak disalahgunakan para penipu untuk menguras rekening ribuan orang. (7/3/2023)

Teknologi ini biasanya banyak ditemukan di situs-situs yang menyediakan aplikasi-aplikasi yang menyediakan fiturAI voice generator.

Dengan menggunakan aplikasi-aplikasi tersebut, para penipu dapat mengubah suara mereka menjadi beberapa orang dengan berbagai nada.

Para penipu melakkan penipuan dengan mengaku bahwasanya mereka adalah keluarga atau kerabat dari para korban untuk meyakinkan mereka.

Sebagian besar nada yang dibuat adalah nada memelas atau nada panik yang membuat perasaan yang mendengar menjadi emosional.

Baca Juga: Riset: Penipuan Online Shop di Seluruh Dunia Mencapai 48 Miliar Dolar

Laporan ini menyebutkan bahwa para korban biasanya adalah para lansia yang sudah sulit membedakan suara asli ataupun penipuan.

Sepasang suami istri korban penipuan jenis ini mengatakan bahwa mereka telah tertipu dan telah mengirimkan uang sebesar $21,800 atau sekitar Rp 335.000.000.

Awalnya mereka mengira orang yang menelfon mereka adalahanak mereka yang bernamaBenjamin Perkin.

Sang penipu mengatakan bahwa karena putra merekaharus berhadapan dengan hukumkarena telah menabrak anak seorang diplomat Amerika Serikat.

Namun, mereka tidak sadar bahwa suara tersebut ternyata adalah suara penipu yang dibuat dengan menggunakan suaraPerkin yang disamarkan dengan AI.

Perkin mengatakan bahwasuara itu "cukup mirip sehingga orang tua saya benar-benar percaya bahwa mereka berbicara dengan saya".

Ia mengeira bahwa penipu menggunakan sample audio yang diunduh dari video saat ia melakukan snowboarding yang diunggah di YouTube.

Para penipu sering menggunakan ketakutan korbannya untuk agar secara psikologis mereka percaya orang yang berbicara dengan mereka adalah keluarga atau kerabat.

Korban lainnya yang tertipu penipuan AI voice generator ini adalah sepasang pasutri berusia 70 tahun mendapatkan telfon dari penipu yang menggunakan suara putranya bernama Brandon.

Penipu itu memelas kepada neneknya, Ruth untuk membebaskannya dari penjara dengan mengirimkan mereka uang.

Tanpa pikir panjang, kedua lansia itu akhirnya mengirimkan uang sebanyak $3.200 atau sekitar Rp 50.000.000 kepada penipu yang mengaku putranya.

Ruth mengatakan ia sangat "takut" dan tanpa pikir panjang langsung berfikir ia harus "menolongnya sekarang juga".

Ia bahkan tidak sadar dan merasa yakin ia berbicara dari dengan cucunya.

"Kami yakin bahwa kami sedang berbicara dengan Brandon," kata Ruth.

Baca Juga: 3 Cara Ini Bisa Hindari Penipu Aplikasi Yang Beraksi di Whatsapp

Sampai saat ini, penipuan dengan menggunakan generator audio AI ini masih belum ditemukan di Indonesia.

Namun, konsepnya yang sama dengan penipuan berkedok telfon ataupun WhatsApp sangatlah berpotensi besar dipraktekkan dengan dteknologi ini.

Jadi, sobat Nextren harap waspada dengan adanya telfon yang mencurigakan walaupun suara para penelfon sangat mirip dengan orang yang kita sayangi.

Pastikan untuk mengecek nomor yang digunakan terlebih dahulu dan mengkonfirmasi ke orang yang suaranya digunakan oleh penipu.

Hal ini agar mencegah kita dari penipuan yang dapat menguras dompet dan rekening.

So, tetap hati-hati ya!

Buat kamu yang penasaran dengan berita, tip dan trik seputar teknologi lainnya, pantau terus website Nextren ya!

(*)

Source : The Washington Post

Editor : Nextren

Baca Lainnya





PROMOTED CONTENT

Latest

x