Bagaimana Alat AI milik Facebook dalam upaya untuk Pencegahan Bunuh Diri itu bekerja?


    Pada tanggal 3 Januari 2021, keputusan seorang pemuda Mumbai berusia 23 tahun untuk melakukan siaran langsung tindakan bunuh dirinya di Facebook berhasil menyelamatkan nyawanya. Diberitahu oleh tim Facebook di Irlandia, polisi Mumbai bergegas ke rumahnya, membuka pintu dan membawa pria tersebut yang tidak sadarkan diri ke rumah sakit dalam waktu satu jam setelah upaya bunuh diri.
    
Beberapa bulan yang lalu, Polisi Bengal Barat memberi tahu ayah seorang pemuda tentang upaya bunuh diri anaknya dengan senjata tajam. Polisi kembali diberitahu oleh tim Facebook setelah pemuda tersebut melakukan siaran langsung upaya bunuh dirinya di platform media sosial tersebut. Informasi dari kantor Facebook di Amerika Serikat pada bulan Juli 2018 membantu polisi Guwahati menyelamatkan seorang gadis di bawah umur.

Ada beberapa contoh lain di mana Facebook memberi tahu pihak berwenang tentang orang-orang yang sedang dalam kesulitan mencoba melukai diri sendiri.

India, yang memiliki tingkat bunuh diri tertinggi di dunia, melaporkan sekitar 381 kematian akibat bunuh diri setiap hari pada tahun 2019, menambahkan 1.39.123 kematian selama setahun, menurut data Biro Catatan Kriminal Nasional (NCRB). Tingkat kasus bunuh diri untuk tahun 2019 naik 3,4 persen dibandingkan tahun 2018. WHO (World Health Organization) mengatakan bunuh diri dapat dicegah dengan intervensi yang tepat waktu.

Facebook, raksasa media sosial ini memiliki jutaan pengguna, menghasilkan jumlah data yang besar dalam bentuk kiriman, teks, atau video setiap hari. Manusia tidak mungkin mengawasi apa yang dikatakan dan dibagikan, itulah mengapa Facebook mengandalkan kecerdasan buatan (AI) untuk memindai tanda-tanda masalah.

Bagaimana Facebook mengetahuinya?

Pria Mumbai dan pemuda Bengal Barat telah melakukan siaran langsung upaya bunuh diri mereka sementara gadis di Guwahati telah membagikan rencananya untuk membunuh diri di timeline Facebook-nya.

Mereka yang melihat kiriman tersebut dapat melaporkannya ke Facebook. Raksasa media sosial ini memiliki tim operasi komunitas untuk meninjau laporan semacam itu. Tim tersebut memberikan dukungan dengan menghubungkan orang tersebut ke pihak berwenang setempat, kanal bantuan, atau kelompok non-pemerintah yang bekerja di bidang tersebut.

Cara lain adalah algoritma kecerdasan buatan Facebook yang mengidentifikasi potensi bahaya diri.

Mengapa perlu alat AI ketika sudah ada mekanisme pelaporan?

Dalam sebuah blog pada tanggal 21 Februari 2018, pengembang di Facebook yang bekerja pada alat tersebut mengatakan, "Dimasa lalu, kami mengandalkan orang-orang terdekat untuk melaporkan kiriman yang mengkhawatirkan kepada kami karena mereka berada dalam posisi terbaik untuk mengetahui ketika seseorang sedang berjuang. Namun, banyak kiriman yang mengungkapkan pikiran atau niat bunuh diri tidak pernah dilaporkan ke Facebook, atau tidak dilaporkan dengan cukup cepat." Ini adalah salah satu alasan besar mengapa perusahaan memperkuat pencegahan bunuh diri.

Namun, apakah alat AI tersebut cukup cerdas?

Alat AI ini diluncurkan pada tahun 2018 tetapi telah dalam pengembangan selama beberapa waktu. Dalam bentuk awalnya pada tahun 2017, Facebook menggunakan model pembelajaran mesin untuk mengidentifikasi kata kunci atau frasa yang diketahui terkait dengan bunuh diri dengan bekerja sama dengan para ahli. Kata-kata seperti membunuh, selamat tinggal, kesedihan, depresi, atau mati dapat dikaitkan dengan bahaya diri. Tim peninjau kemudian akan memutuskan tindakan selanjutnya.

Namun, kata-kata yang sama dapat digunakan dalam konteks yang berbeda - "Saya bisa mati karena kebosanan" atau "pekerjaan saya membunuh saya". Frasa-frasa ini tidak dapat dianggap sebagai indikasi bahaya diri tetapi mesin tidak akan tahu hal itu.

Tim operasi komunitas Facebook harus menghabiskan lebih banyak waktu menyaring apa yang dikenal sebagai positif palsu.
"... model pembelajaran mesin menangkap terlalu banyak positif palsu yang tidak berbahaya untuk menjadi filter yang berguna bagi tim peninjau manusia," kata Catherine Card, Direktur Manajemen Produk, dalam sebuah postingan blog pada September 2018.
Tim tersebut melatih sistem menggunakan AI untuk menciptakan alat yang lebih cerdas. "Set data yang lebih kecil membantu kami mengembangkan pemahaman yang jauh lebih halus tentang apa yang merupakan pola bunuh diri dan apa yang bukan," kata Dan Muriello, seorang insinyur dalam tim yang menghasilkan alat tersebut, dalam postingan yang sama.

Apakah itu cukup? Tidak. Itu hanya satu faktor. Alat ini juga melihat komentar yang ditinggalkan pada kiriman atau postingan atau status dan sifat komentar dari status atau kiriman tersebut.
"Di sini, juga ada nuansa linguistik yang perlu dipertimbangkan," kata Card dalam postingan tersebut.

Kiriman yang ditentukan oleh peninjau sebagai kasus serius cenderung memiliki komentar seperti "beritahu saya di mana kamu berada" atau "ada yang mendengar kabar darinya?" Kiriman yang mungkin kurang mendesak memiliki komentar seperti "Hubungi kapan saja" atau "Saya di sini untukmu".
Kemudian ada pola juga - apa yang sebelumnya diposting dan apa yang mereka bicarakan? Jika kiriman menunjukkan bahaya diri, maka berapa lama jarak antara mereka untuk memahami apakah pengguna berada dalam bahaya mendesak. Alat ini mempertimbangkan semua ini.

Bagaimana dengan video, siaran langsung?

Nitish Chandan, yang bekerja dengan Cyber Peace Foundation, sebuah lembaga pemikir keamanan siber, mengatakan kepada Moneycontrol.com bahwa Facebook pasti telah mengembangkan algoritma untuk video siaran langsung juga tetapi itu membutuhkan sumber daya yang intensif.

Dalam kasus-kasus ini, mekanisme pelaporan adalah satu arah. Alat ini juga menggunakan komentar dan pola konten pengguna untuk menentukan sifat kiriman tersebut sebelum melaporkannya ke tim operasi komunitas untuk diverifikasi.

Apa yang terjadi jika postingan tidak dalam bahasa Inggris?

Apakah mesin tersebut dapat memahami bahasa Punjabi, Malayalam, Tamil, atau bahasa lainnya di dunia ini? Ya, mereka bisa. Itulah salah satu alasan mengapa alat ini telah membantu sejauh ini.

Baru-baru ini, Facebook memperkenalkan model terjemahan mesin yang, menurut laporan, dapat menerjemahkan 100 bahasa tanpa mengandalkan data bahasa Inggris.

Di India, salah satu pasar terbesar bagi Facebook, perusahaan ini menawarkan dukungan dalam beberapa bahasa daerah. Menurut laporan dari Statista, terdapat sekitar 310 juta pengguna Facebook di India.

Fitur-fitur ini membuat deteksi tindakan menyakiti diri menjadi mungkin, kata Chandan. Para pengembang mengatakan dalam sebuah postingan blog bahwa teknologi ini membantu mencakup banyak bahasa dan menggunakan kemampuan lintas bahasa untuk meningkatkan kinerja sistem.

Janice Verghese, seorang advokat yang juga bekerja dengan Cyber Peace Foundation, mengatakan bahwa para peninjau konten di seluruh dunia membantu dalam pengambilan keputusan.

Apa yang terjadi ketika sistem melaporkan upaya bunuh diri?

Setelah tindakan menyakiti diri dilaporkan oleh orang-orang atau dilaporkan oleh sistem, hal tersebut akan ditinjau oleh tim operasi komunitas Facebook yang akan memutuskan tindakan yang akan diambil.

Hal ini dapat berjalan dengan beberapa cara. Ketika pengguna tidak dalam bahaya mendesak, tim akan membantu orang tersebut mencari dukungan, seperti layanan hotline atau konseling. Facebook memiliki kerjasama dengan kelompok-kelompok di berbagai negara untuk membantu orang-orang seperti itu.

Dalam kasus intervensi mendesak, pihak berwenang setempat, seperti polisi, akan segera dihubungi.

Bagaimana Facebook mengetahui lokasi?

Ada beberapa cara untuk melacak lokasi.
  1. Sebagian besar pengguna membagikan nama kota tempat tinggal mereka.
  2. Ketika pengguna mengakses Facebook melalui ponsel, dalam kebanyakan kasus, mereka memberikan akses aplikasi ke geolokasi.
  3. Karena Chrome sering menjadi mode penjelajahan yang disukai, lokasi dapat ditandai kecuali pengguna telah mematikan fitur lokasi.
  4. Banyak pengguna juga menandai lokasi mereka saat memposting di Facebook.
  5. Beberapa pengguna juga membagikan nomor ponsel mereka di Facebook.

Salah satu dari hal-hal ini sudah cukup untuk melacak lokasi pengguna secara kasar dan memberi peringatan kepada pihak berwenang, kata Chandan. Facebook mungkin tidak dapat mendapatkan lokasi yang tepat dalam beberapa kasus, sehingga polisi harus turun tangan.

Apakah pihak berwenang dapat melacak orang tepat waktu?

Ya. Pada Agustus 2020, postingan Facebook seorang pria berusia 27 tahun di Delhi, India dilaporkan oleh sistem karena tindakan menyakiti diri. Menurut laporan PTI, tim Facebook memberi tahu Wakil Komisaris Polisi Delhi (Cyber) Anyesh Roy dan membagikan nomor pengguna tersebut. Seharusnya sudah cukup, tetapi pria tersebut telah pergi ke Mumbai, yang diketahui oleh polisi setelah berbicara dengan istri pria tersebut yang menggunakan nomornya.

Setelah upaya yang terkoordinasi, polisi Delhi dan Mumbai melacak pria tersebut dan mencegahnya melakukan tindakan ekstrem. Pria tersebut mengalami kesulitan keuangan.

Seberapa akurat sistem ini?

Facebook tidak membagikan data tentang seberapa akurat alat ini. Perusahaan tersebut masih harus menanggapi pertanyaan Moneycontrol.com tentang alat ini. Cerita ini akan diperbarui untuk menambahkan komentar perusahaan Facebook ketika mereka diterima.

Menurut sebuah makalah penelitian yang diterbitkan dalam Biomedical Informatics Insights oleh Coppersmith et al, model AI yang diterapkan oleh perusahaan media sosial seperti Facebook dapat menjadi 10 kali lebih akurat dalam memprediksi upaya bunuh diri daripada para klinisi.

Bagaimana dengan privasi pengguna Facebook?

Berbagi konten tentang kesehatan mental di Facebook tidak akan melanggar larangan privasi lebih daripada postingan biasa.

Namun, yang perlu diperhatikan adalah saat perusahaan membagikan informasi dengan pengguna pihak ketiga, yang dapat menjadi kekhawatiran besar, kata Chandan. Facebook masih harus menanggapi email yang meminta tanggapan tentang bagaimana perusahaan melindungi privasi para penggunanya.

Sumber: Moneycontrol

Post a Comment

0 Comments