Home > News

Teknik Baru Membantu Mengetahui Kapan Manusia Berbohong

Para peneliti mengembangkan serangkaian parameter pelatihan baru yang dapat digunakan untuk menginformasikan bagaimana AI mengajar dirinya sendiri untuk membuat prediksi. Hasil penelitian ini dipublikasikan sciencedaily. Com pada tanggal, 18/3/2024.
Deteksi kebohongan atau Poligraf. Gambar: shutterstock.com
Deteksi kebohongan atau Poligraf. Gambar: shutterstock.com

DIAGNOSA -- Para peneliti telah mengembangkan alat pelatihan baru untuk membantu program kecerdasan buatan atau artificial intelligence program (AI), fakta bahwa manusia tidak selalu mengatakan yang sebenarnya ketika memberikan informasi pribadi. Alat baru ini dikembangkan untuk digunakan dalam konteks ketika manusia mempunyai insentif ekonomi untuk berbohong, seperti mengajukan hipotek atau mencoba menurunkan premi asuransi.

“Program AI digunakan dalam berbagai konteks bisnis, seperti membantu menentukan seberapa besar hipotek yang mampu dibayar seseorang, atau berapa premi asuransi yang harus dibayar seseorang,” kata Mehmet Caner, salah satu penulis makalah tentang bekerja.

“Program AI ini umumnya menggunakan algoritma matematis yang hanya didorong oleh statistik untuk melakukan peramalan. Namun masalahnya adalah pendekatan ini menciptakan insentif bagi orang untuk berbohong, sehingga mereka bisa mendapatkan hipotek, menurunkan premi asuransi, dan sebagainya.

“Kami ingin melihat apakah ada cara untuk menyesuaikan algoritma AI untuk memperhitungkan kebohongan insentif ekonomi ini,” kata Caner, yang merupakan Profesor Ekonomi Terhormat Thurman-Raytheon di Poole College of Management di North Carolina State University.

Untuk mengatasi tantangan ini, para peneliti mengembangkan serangkaian parameter pelatihan baru yang dapat digunakan untuk menginformasikan bagaimana AI mengajar dirinya sendiri untuk membuat prediksi.

Secara khusus, parameter pelatihan baru berfokus pada pengenalan dan penghitungan insentif ekonomi pengguna manusia.

Dengan kata lain, AI melatih dirinya untuk mengenali keadaan di mana pengguna manusia mungkin berbohong untuk meningkatkan hasil mereka.

Dalam simulasi pembuktian konsep, AI yang dimodifikasi lebih mampu mendeteksi informasi yang tidak akurat dari pengguna.

“Ini secara efektif mengurangi insentif pengguna untuk berbohong ketika mengirimkan informasi,” kata Caner.

“Namun, kebohongan kecil masih bisa tidak terdeteksi. Kita perlu melakukan beberapa upaya tambahan untuk lebih memahami batasan antara 'kebohongan kecil' dan 'kebohongan besar'.”

Para peneliti membuat parameter pelatihan AI baru tersedia untuk umum, sehingga pengembang AI dapat bereksperimen dengannya.

“Penelitian ini menunjukkan bahwa kita dapat meningkatkan program AI untuk mengurangi insentif ekonomi bagi manusia untuk berbohong,” kata Caner. “Pada titik tertentu, jika kita membuat AI cukup pintar, kita mungkin bisa menghilangkan semua insentif tersebut.”

Sumber: sciencedaily.com

× Image