Peneliti Oxford ungkap etika AI saat ini mengabaikan anak-anak. Bagaimana prinsip etika AI yang mendukung anak-anak? Foto: iStock

Para peneliti University of Oxford mendapati data soal efektivitas psinsip etika kecerdasan artifisial (AI) bagi anak-anak masih sangat kurang. Berdasarkan prinsip etika AI yang secara global, ada berbagai kendala mengadaptasinya untuk kepentingan anak-anak.

Dalam makalah perspektif yang diterbitkan di Nature Machine Intelligence, para peneliti dari Oxford Martin Programme on Ethical Web and Data Architectures (EWADA) tersebut merinci empat kendala utamanya beserta rekomendasi solusinya.

Tantangan Prinsip Etika AI untuk Anak
Kurang Pertimbangkan Perkembangan Anak-anak
Prinsip etika AI global saat ini dinilai kurang mempertimbangkan sisi perkembangan masa kanak-kanak, terutama kebutuhan anak yang kompleks dan individual, rentang usia, tahapan perkembangan, latar belakang, dan karakter.

Tidak Terlalu Pertimbangkan Peran Ortu pada Perkembangan Anak dan PAUD
Peneliti mendapati prinsip etika AI saat ini hanya sedikit mempertimbangkan peran orang tua terhadap perkembangan dan pendidikan anak usia dini. Di dunia digital misalnya, pengalaman orang tua tidak selalu lebih unggul daripada anaknya

Kurang Evaluasi AI soal Kepentingan Anak
Terlalu sedikit evaluasi AI yang berfokus pada kepentingan dan hak anak. Sistem AI biasanya dinilai secara kuantitatif dalam hal keselamatan dan perlindungan, tetapi pendekatan ini tidak cukup mempertimbangkan faktor-faktor seperti kebutuhan perkembangan anak dan kesejahteraan jangka panjang.

Kurang Pendekatan Terkoordinasi, Lintas Sektor, Lintas Disiplin
Peneliti juga menggarisbawahi saat ini tidak ada pendekatan yang terkoordinasi, lintas sektoral, dan lintas disiplin dalam merumuskan prinsip-prinsip etika AI untuk anak-anak. Prinsip ini penting untuk menghasilkan perubahan praktik AI yang berdampak.

Solusi Prinsip Etika AI untuk Anak
Peneliti menjelaskan, integrasi prinsip pengamanan anak ke dalam inovasi-inovasi AI sangat penting. Integrasi ini dapat mencegah anak-anak terpapar pada konten yang bias etnis, bias lainnya, dan konten-konten berbahaya, khususnya bagi kelompok yang rentan.

Lebih lanjut, evaluasi terhadap metode tersebut harus lebih dari sekadar metrik kuantitatif saja, seperti akurasi atau presisi.

Contohnya, bekerja sama dengan University of Bristol, para peneliti juga membuat tools yang bantu anak-anak dengan ADHD sehari-hari dengan AI. Tools ini disesuaikan dengan kebutuhan anak ADHD untuk cakap secara digital, termasuk antarmukanya yang dibuat sederhana tetapi efektif.

Berikut sejumlah rekomendasi solusi prinsip etika AI untuk anak dari para peneliti Oxford, seperti dipublikasi di jurnal Nature Machine Intelligence:

Meningkatkan keterlibatan pemangku kepentingan utama, termasuk orang tua dan wali, pengembang AI, dan anak-anak itu sendiri
Memberikan lebih banyak dukungan langsung kepada perancang industri dan pengembang sistem AI, terutama dengan lebih melibatkan mereka dalam penerapan prinsip-prinsip etika AI
Membangun mekanisme akuntabilitas hukum dan profesional yang berpusat pada anak
Meningkatkan kolaborasi multidisiplin seputar pendekatan yang berpusat pada anak, yang melibatkan pemangku kepentingan di berbagai bidang, seperti interaksi manusia-komputer, desain, algoritma, panduan kebijakan, undang-undang perlindungan data, dan pendidikan.

Contoh Prinsip Etika AI untuk Anak
Para penulis studi juga menguraikan beberapa prinsip utama etika AI untuk anak-anak yang perlu dipertimbangkan, sebagai berikut:

Memastikan akses digital yang adil, setara dan inklusif
Memberikan transparansi dan akuntabilitas ketika mengembangkan sistem AI
Menjaga privasi dan mencegah manipulasi dan eksploitasi
Menjamin keselamatan anak-anak
Menciptakan sistem yang sesuai dengan usia
Secara aktif melibatkan anak-anak dalam perkembangannya.

Editor: PARNA
Sumber: detik.com