boy in blue shirt wearing headphones lying on bed

ROOST: Inisiatif AI Baru untuk Keamanan Anak Online

Table of Contents

Inisiatif ROOST Diluncurkan untuk Meningkatkan Keamanan Anak di Dunia Maya

Sejumlah perusahaan teknologi terkemuka, termasuk OpenAI dan Discord, baru-baru ini meluncurkan ROOST (Robust Open Online Safety Tools – Perangkat Keamanan Online Terbuka yang Tangguh), sebuah proyek yang berfokus pada peningkatan keamanan online (daring) bagi anak-anak melalui perangkat open-source (sumber terbuka). ROOST memiliki tujuan untuk “membangun infrastruktur keamanan yang terukur dan dapat dioperasikan bersama, yang sesuai untuk era AI,” dengan memanfaatkan Artificial Intelligence (AI) (Kecerdasan Buatan) untuk mendeteksi, meninjau, dan melaporkan Child Sexual Abuse Material (CSAM) (Materi Pelecehan Seksual Anak).

Inisiatif bernama ROOST (Robust Open Online Safety Tools – Perangkat Keamanan Online Terbuka yang Tangguh) ini berhasil mengumpulkan dana sebesar $27 juta untuk menyediakan perangkat berbasis AI yang mampu mengidentifikasi potensi pelecehan anak secara online (daring). Dana sebesar $27 juta ini akan digunakan untuk membiayai operasional ROOST selama empat tahun pertama, dengan inkubasi di School of International and Public Affairs (Sekolah Urusan Internasional dan Publik) Universitas Columbia.

Logo-logo mitra pendiri ROOST (Discord, OpenAI, Google, Roblox, Eric Schmidt), atau gambar yang mewakili keamanan online untuk anak-anak.

Mitra Utama dan Kontribusi Mereka

Mitra pendiri dari inisiatif ROOST ini meliputi sejumlah nama besar di industri teknologi, yaitu Discord, OpenAI, Google, Roblox, dan Eric Schmidt. Schmidt menyatakan bahwa ROOST hadir untuk menjawab kebutuhan mendesak dalam mempercepat inovasi di bidang keamanan anak online (daring) dan AI. Inisiatif ini juga bertujuan untuk memberikan akses terhadap teknologi penting kepada entitas-entitas yang lebih kecil. Daniela Amodei dari Anthropic menyoroti potensi AI sebagai alat pembelajaran yang efektif dengan panduan manusia, serta menegaskan dukungan Anthropic terhadap pengembangan AI yang bermanfaat bagi anak-anak.

Ryan Beiermeister dari OpenAI menyampaikan, “Kami melihat AI sebagai bagian dari solusi, dan dengan menggabungkan keahlian dari berbagai mitra serta berbagi pengetahuan tersebut dengan perusahaan-perusahaan kecil dan organisasi publik, kami dapat mempermudah penerapan langkah-langkah keamanan online yang tangguh.” Clint Smith dari Discord menekankan komitmen Discord terhadap keamanan online dan peran mereka sebagai mitra pendiri ROOST, dengan berkontribusi dalam bentuk pendanaan, teknologi, dan keahlian karyawan. Naren Koneru dari Roblox menyoroti bahwa teknologi keamanan open-source (sumber terbuka) akan memungkinkan organisasi dengan berbagai ukuran untuk melakukan moderasi konten, terutama terkait keamanan anak, dengan biaya yang lebih terjangkau.

Selain mitra-mitra utama tersebut, ROOST juga didukung oleh berbagai organisasi lain seperti AI Collaborative, Project Liberty Institute, Patrick J. McGovern Foundation, Knight Foundation, Center for Democracy and Technology, dan Bluesky. ROOST mendapatkan dukungan dari organisasi-organisasi termasuk Patrick J. McGovern Foundation, Knight Foundation, dan AI Collaborative, dan akan beroperasi dari Institute of Global Politics di Universitas Columbia.

Tujuan ROOST dan Perangkat Berbasis AI

ROOST memiliki tujuan utama untuk menciptakan infrastruktur keamanan yang lebih mudah diakses dan transparan. Langkah ini merupakan respons terhadap kekhawatiran yang berkembang mengenai peran Artificial Intelligence (AI) (Kecerdasan Buatan) dalam potensi bahaya online (daring). Perangkat-perangkat yang didukung oleh AI ini akan menyatukan sistem deteksi Child Sexual Abuse Material (CSAM) (Materi Pelecehan Seksual Anak) yang sudah ada, sehingga langkah-langkah keamanan menjadi lebih mudah untuk diterapkan. Selain itu, ROOST akan memanfaatkan Large Language Model (LLM) (Model Bahasa Besar) untuk meningkatkan efektivitas langkah-langkah keamanan, menawarkan dataset pelatihan AI yang teruji, dan menyederhanakan teknologi moderasi konten yang sudah ada.

Secara konkret, ROOST menyediakan perangkat berbasis AI yang dirancang untuk mengidentifikasi dan menandai potensi kasus pelecehan anak secara online (daring). Eric Schmidt menekankan pentingnya pendekatan kolaboratif dan open-source (sumber terbuka) dalam mewujudkan keamanan online (daring). Diharapkan, ROOST akan menyediakan perangkat moderasi AI melalui Application Programming Interface (API) (Antarmuka Pemrograman Aplikasi) yang dapat diintegrasikan langsung oleh berbagai platform. Inisiatif ini juga berpotensi untuk menggabungkan proyek Lantern milik Discord dan sistem moderasi AI milik Roblox.

Grafik yang mewakili keamanan anak online, logo perusahaan teknologi yang berpartisipasi (Alphabet, OpenAI, Roblox), atau representasi visual dari perangkat berbasis AI untuk mendeteksi pelecehan online.

Menjawab Meningkatnya Kebutuhan Perlindungan Anak Online

Inisiatif ROOST ini muncul di tengah meningkatnya tuntutan kepada perusahaan media sosial dan teknologi untuk lebih melindungi anak-anak dan remaja di dunia maya. Peluncuran ROOST juga bertepatan dengan dorongan regulasi yang lebih luas untuk memperkuat langkah-langkah keamanan anak online (daring), seperti Kids Online Safety Act (Undang-Undang Keamanan Anak Online) yang sedang digodok di Amerika Serikat.

National Center for Missing and Exploited Children (NCMEC) (Pusat Nasional untuk Anak Hilang dan Tereksploitasi) melaporkan adanya peningkatan sebesar 12% dalam dugaan eksploitasi anak online (daring) pada tahun 2023, dengan total lebih dari 36,2 juta laporan. Lonjakan angka ini semakin menggarisbawahi urgensi untuk tindakan yang lebih efektif dalam melindungi anak-anak dari bahaya di dunia digital.

Discord, yang sebelumnya telah memberikan kesaksian di hadapan komite Senat Amerika Serikat tentang keamanan anak online (daring), telah meluncurkan berbagai upaya untuk meningkatkan keamanan dan privasi pengguna. Upaya ini termasuk fitur “Ignore” (Abaikan) baru yang memungkinkan pengguna untuk “mengambil jarak” dari pengguna lain tanpa sepengetahuan mereka. Infrastruktur keamanan open-source (sumber terbuka) yang ditawarkan oleh ROOST berpotensi besar untuk membantu perusahaan-perusahaan kecil dalam menerapkan langkah-langkah perlindungan anak yang kuat tanpa harus mengeluarkan biaya tinggi yang biasanya terkait dengan moderasi konten berbasis AI. Tantangan utama saat ini terletak pada eksekusi—memastikan bahwa perangkat yang dihasilkan efektif, diadopsi secara luas, dan terus diperbarui seiring dengan perkembangan ancaman online (daring).

Leave a Reply

Your email address will not be published. Required fields are marked *