Apakah Anda pernah merasa bahwa game multipemain akan lebih baik jika pemain lain tidak terlalu kasar? Ubisoft dan Riot Games sedang mempertimbangkan untuk melatih kecerdasan buatan untuk mengatasi perilaku buruk dalam obrolan dalam game, sebuah kolaborasi penelitian yang mereka sebut Zero Harm In Comms. Menjelang pengumuman mereka hari ini, saya mengajukan beberapa pertanyaan kepada direktur eksekutif Ubisoft La Forge Yves Jacquier dan kepala penelitian teknologi Riot Wesley Kerr untuk mendapatkan lebih banyak wawasan tentang proyek bersama, dan menanyakan dengan tepat bagaimana proposal mereka akan bekerja.
Setelah membaca itu, Anda mungkin bertanya-tanya, “Perusahaan-perusahaan ini mengatasi toksisitas? Betulkah?” Ubisoft dan Riot memiliki sejarah mereka sendiri tentang dugaan perilaku yang tidak pantas dalam budaya perusahaan mereka. Meskipun kedua perusahaan mengatakan mereka berkomitmen untuk perubahan perilaku, terbukti sulit untuk memenangkan pemain yang mengetahui sejarah mereka. Meskipun masih dalam tahap awal, Zero Harms In Comms adalah upaya untuk bekerja sama untuk menjawab masalah pelik yang relevan di seluruh industri, tetapi ini hanyalah satu kemungkinan tanggapan terhadap masalah perilaku yang mengganggu dalam obrolan.
Ubisoft dan Riot sudah menjadi anggota Fair Play Alliance dengan komitmen bersama untuk menciptakan ruang yang adil, aman, dan inklusif di antara belantara game online, dan Zero Harms In Comms adalah cara yang mereka pilih untuk mencoba menangani masalah toksisitas dalam obrolan. Perusahaan tidak menentukan apakah penelitian mereka akan mencakup obrolan teks atau suara, atau keduanya, tetapi mereka mengatakan bahwa mereka bertujuan untuk “menjamin etika dan privasi” dari inisiatif tersebut.
Ubisoft dan Riot berharap temuan mereka dapat digunakan untuk membuat database bersama untuk seluruh industri game untuk mengumpulkan data, dan menggunakannya untuk melatih alat moderasi AI untuk mendeteksi dan merespons perilaku cerdik terlebih dahulu. Untuk melatih AI yang menjadi inti dari proyek Zero Harm In Comms, Ubisoft dan Riot menggunakan chatlog dari game masing-masing yang beragam dan berfokus pada online. Ini berarti database mereka harus memiliki cakupan yang luas dari jenis pemain dan perilaku yang mungkin ditemui saat melakukan fragging dan yeeting online. Pelatihan AI tentu saja tidak sempurna; kita semua ingat chatbot AI Microsoft, yang Twitter berubah menjadi fanatik dalam sehari, meskipun itu memang contoh ekstrem.
Proyek Zero Harms In Comms dimulai Juli lalu. “Ini adalah topik yang kompleks dan sangat sulit dipecahkan, belum lagi sendirian,” kata Jacquier kepada saya. “Kami yakin bahwa, dengan bersatu sebagai sebuah industri, melalui aksi kolektif dan berbagi pengetahuan, kami dapat bekerja lebih efisien untuk mendorong pengalaman online yang positif.” Jacquier awalnya mendekati Kerr atas nama Ubisoft karena keduanya pernah bekerja sama sebelumnya dalam mengembangkan investasi Riot dalam riset teknologi. Jacquier dan Kerr menetapkan dua tujuan penelitian. Yang pertama adalah membuat kerangka kerja berbagi data yang mematuhi GDPR yang melindungi privasi dan kerahasiaan. Yang kedua adalah menggunakan data yang dikumpulkan untuk melatih algoritme mutakhir agar lebih berhasil mengambil “konten beracun”.
Riot merasa bekerja dengan Ubisoft memperluas apa yang dapat mereka capai melalui penelitian, kata Kerr kepada saya. “Ubisoft memiliki banyak koleksi pemain yang berbeda dari basis pemain Riot,” katanya, “sehingga kemampuan untuk menarik kumpulan data yang berbeda ini berpotensi memungkinkan kami untuk mendeteksi kasus perilaku mengganggu yang sangat sulit dan canggih dan membangun model yang lebih tangguh .” Ubisoft dan Riot belum mendekati perusahaan lain untuk bergabung, sejauh ini, tetapi mungkin di masa mendatang. “R&D itu sulit dan bagi dua pesaing untuk berbagi data dan keahlian dalam proyek R&D, Anda memerlukan banyak kepercayaan dan ruang yang dapat dikelola untuk dapat melakukan iterasi,” kata Jacquier.
Saya meminta Jacquier dan Kerr untuk menjelaskan apa yang mereka anggap sebagai perilaku mengganggu dalam obrolan. Jacquier memberi tahu saya bahwa konteks adalah kuncinya. “Sebagian besar layanan dan alat komersial memiliki batasan yang kuat: banyak yang didasarkan pada kamus kata-kata kotor yang dapat dengan mudah dilewati,” katanya, “dan itu tidak memperhitungkan konteks garis. Misalnya, dalam penembak kompetitif, jika seorang pemain mengatakan ‘Saya datang untuk mengalahkan Anda’, itu mungkin bagian dari fantasi dan karena itu dapat diterima, sementara itu dapat diklasifikasikan sebagai ancaman di game lain. Para peneliti akan mencoba melatih AI untuk mendapatkan konteks itu dari obrolan, tetapi mengakui bahwa mereka telah menetapkan sendiri tugas yang sangat rumit. Kerr menunjukkan bahwa perilaku dapat bervariasi di seluruh “budaya, wilayah, bahasa, genre, dan komunitas”.
Seperti yang dinyatakan, proyek ini berkisar pada AI, dan meningkatkan kemampuannya untuk menafsirkan bahasa manusia. “Metode tradisional menawarkan presisi penuh tetapi tidak dapat diskalakan, kata Jacquier kepada saya. “AI jauh lebih terukur, tetapi dengan mengorbankan presisi.” Kerr menambahkan bahwa, di masa lalu, tim mendasarkan upaya mereka pada penggunaan AI untuk menargetkan kata kunci tertentu, tetapi itu akan selalu melewatkan beberapa perilaku yang mengganggu. “Dengan kemajuan dalam pemrosesan bahasa alami dan khususnya beberapa model bahasa besar terbaru,” katanya, “kami melihat mereka dapat memahami lebih banyak konteks dan nuansa dalam bahasa yang digunakan daripada sekadar mencari kata kunci.”
Jacquier meyakinkan saya bahwa privasi adalah inti dari penelitian ini. “Data ini pertama-tama dibersihkan dari Informasi Identifikasi Pribadi dan informasi pribadi apa pun dan kemudian diberi label berdasarkan perilaku,” katanya, “misalnya: benar-benar netral, rasisme, seksisme, dll.” Data tersebut kemudian diteruskan oleh AI untuk melatihnya memahami perilaku yang berpotensi mengganggu saat menemukannya. AI ini adalah algoritme Pemrosesan Bahasa Alami (NLP), yang menurut Jacquier dapat mendeteksi 80% konten berbahaya dibandingkan dengan tingkat keberhasilan 20% untuk teknik berbasis kamus.
Kerr memecah proses pengumpulan dan pelabelan data untuk melatih algoritme NLP ini sedikit lebih banyak untuk saya. “Data tersebut terdiri dari log obrolan pemain, data game tambahan, serta label yang menunjukkan jenis perilaku mengganggu apa yang ada jika ada,” katanya. “Banyak label dianotasi secara manual secara internal dan kami memanfaatkan metode semi-diawasi untuk menambahkan label ke contoh di mana model kami cukup yakin bahwa perilaku yang mengganggu telah terjadi.” Untuk mengambil perilaku yang mengganggu sesukses mungkin, pelatihan algoritma NLP akan melibatkan “ratusan atau ribuan contoh”, belajar menemukan pola di antara mereka.
Tentu saja, gajah lain di ruangan ini adalah pemainnya. Setiap kali kita online, kita membuka diri terhadap risiko interaksi buruk dengan orang lain, anonim atau sebaliknya. Saya bertanya kepada Jacquier dan Kerr bagaimana menurut mereka para pemain akan bereaksi terhadap AI yang menilai konvoi dalam game mereka. Jacquier mengakui bahwa ini hanyalah langkah pertama untuk mengatasi ruang beracun di industri. “Harapan kami adalah para pemain kami secara bertahap akan melihat perubahan positif yang berarti dalam komunitas game online di mana mereka melihat perilaku yang kurang mengganggu,” katanya. Kerr menambahkan bahwa dia berharap para pemain dapat memahami bahwa proyek seperti Zero Harm In Comms membutuhkan waktu untuk mengubah perilaku dengan cara yang berarti. Mungkin para pemain bisa mencoba bersikap baik satu sama lain, seperti yang pernah disarankan mantan direktur Overwatch Jeff Kaplan ?.
Meskipun baik Jacquier maupun Kerr tidak membahas apa yang sebenarnya akan terjadi pada pemain setelah alat berbasis AI mereka mendeteksi perilaku yang mengganggu, hasil akhir dari proyek Zero Harm “tidak akan menjadi sesuatu yang dilihat pemain dalam semalam”. Penelitian ini hanya dalam fase pengumpulan data awal, dan jauh dari memasuki fase kedua untuk benar-benar menggunakan data tersebut untuk mendeteksi perilaku yang mengganggu dengan lebih baik. “Kami akan mengirimkannya ke pemain secepat kami bisa,” Kerr memberi tahu saya. Zero Harm In Comms masih dalam tahap awal, tetapi baik Ubisoft maupun Riot berharap penelitian ini pada akhirnya akan memberikan hasil yang luas dan positif untuk dibagikan kepada seluruh industri game dan seterusnya. “Kami tahu masalah ini tidak dapat diselesaikan dalam ruang hampa,” kata Kerr, dan Jacquier setuju: “Ini tahun 2022, semua orang online dan semua orang harus merasa aman.”
Meskipun demikian, belum pasti apakah proyek penelitian tersebut akan memiliki sesuatu yang berarti untuk dilaporkan, kata Jacquier. “Terlalu dini untuk memutuskan bagaimana kami akan membagikan hasilnya karena itu bergantung pada hasil dari fase pertama ini,” katanya. “Apakah kita akan memiliki kerangka kerja yang berhasil untuk memungkinkan berbagi data lintas industri? Apakah kita akan memiliki prototipe yang berfungsi?” Terlepas dari bagaimana hasil proyeknya, perusahaan mengatakan mereka akan membagikan temuan mereka tahun depan.
pengeluaranhk dikatakan sah jika menyita data keluaran hongkong segera melalui hongkongpools Dimana keakuratan sebuah nomor keluaran hk ini tidak bisa ditunaikan secara sembarangan. Situs hk pools sudah diresmikan oleh WLA atau World Lotteries Associaton yang merupakan instansi judi togel dunia.