cpu-data.info

Intel Bikin Software Pendeteksi Video Palsu Deepfake

Logo Intel dalam peluncuran Intel Gen 13 di Indonesia
Lihat Foto

- Selain memberi manfaat dan kemudahan, maraknya kecerdasan buatan (AI) juga membawa sisi gelap seperti video deepfake. Video palsu ini bisa menampilkan seseorang, lengkap dengan suaranya, yang sangat mirip aslinya.

Misalnya seperti video palsu di mana sosok serupa Presiden Ukraina Volodymyr Zelensky menyatakan menyerah kepada Rusia, yang beredar tahun lalu.

Tokoh rekaan dalam video deepfake bisa sangat sulit dibedakan dari aslinya, bahkan oleh para ahli sekalipun. Terkait hal in, Intel sudah membikin software bernama "FakeCatcher" yang mampu mendeteksi apakah sebuah video palsu atau asli.

Baca juga: Menilik Teknologi Deepfake di Balik Video Diduga Mirip Nagita Slavina

Caranya adalah dengan medeteksi pola aliran darah di wajah yang mengubah warna kulit seseorang ketika berbicara. Perubahan warna wajah ini dikenal dengan istilah photoflexmography (PPG).

"Kami mengambil sinyal PPG dari banyak area di wajah, lalu mengubahnya jadi peta PPG," ujar peneliti senior Intel, Ilke Demir, sebagaimana dihimpun KompasTekno dari PetaPixel, Kamis (3/8/2023).

"Kemudian kami mengembangkan deep learning berdasarkan hal tersebut utnuk mengklasifikasikan video palsu atau asli," imbuh Demir.

Dengan kata lain, FakeCatcher mencari perubahan warna wajah dari aliran darah yang tidak ada di video hasil rekaan deepfake. Software ini juga mengamati indikasi lain berupa gerakan mata subyek dalam video.

Baca juga: Selebriti dan Tokoh Publik yang Jadi Korban Video Deepfake Selain Nagita Slavina

Demir menerangkan bahwa manusia asli memiliki arah pandangan yang fokus dan terarah ketika berbicara, seperti ketika menatap mata lawan bicara. Sementara, mata sosok orang dalam deepfake pandangannya kosong dan tak terarah.

Intel mengeklaim bahwa FakeCatcher memiliki tingkat akurasi hingga 96 persen. Namun, ketika dijajal oleh BBC dalam sebuah penelusuran, ternyata kerjanya masih belum sepenuhnya akurat dengan ikut melabeli video asli sebagai palsu.

Salah satu sebabnya disinyalir karena Intel masih belum menyertakan analisis audio. Jika sudah dilakukan, tambahan informasi ini diharapkan bisa meningkatkan akurasi FakeCatcher dalam mengendus video deepfake.

Terkini Lainnya

Tautan Sahabat