Saat AI Harus Memutuskan

1 week ago 7

Alasannya, AI lebih mempermudah penyelesaian beragam urusan manusia. Walau kemudian muncul kekhawatiran AI menggantikan peran manusia dalam kehidupan.

Keadilan kecerdasan buatan (AI Fairness) merupakan isu untuk merespons atau mencegah berbagai kerugian (atau manfaat) bagi berbagai kelompok, sehingga menyediakan sistem yang mengukur prasangka dan mengurangi diskriminasi terhadap subkelompok.

Di antara kekhawatiran tersebut adalah soal pembuatan keputusan yang memakai AI. Misal, keputusan dalam pemerintahan, keputusan dalam persidangan, termasuk keputusan dalam rapat. Pertanyaan yang timbul adalah sekitar kemungkinan keputusan berdasar AI yang ternyata tidak adil.

Dengan kemajuan terkini dalam kecerdasan buatan (AI), pengambilan keputusan secara bertahap telah bergeser dari sistem berbasis aturan ke pengembangan berbasis pembelajaran mesin (misalnya, [1,2,3]), mempelajari pola dari data dan melakukan pengenalan pola, inferensi, atau prediksi.

Meskipun tren metodologi baru tersebut berasal dari bias yang dibawa oleh aturan manusia, bias dan ketidakadilan ini secara bertahap merasuki kecerdasan buatan dalam bentuk lain, karena manusia masih terlibat dalam pengumpulan kumpulan data yang digunakan untuk melatih pembelajaran mesin dalam sistem baru.

Nah, buku "AI Fairness and Beyond" mengusulkan sistem regulasi untuk memastikan bahwa AI membuat keputusan yang adil. Tentu saja, tak seorang pun ingin menjadi subjek keputusan tidak adil yang dibuat oleh AI, apalagi keadilan sangat penting bagi masyarakat, sehingga kita cenderung ingin mengatur untuk menuntutnya. 

Namun, bagaimana caranya? Buku ini mencoba menjawab pertanyaan itu.

Tujuan regulasi haruslah agar keputusan AI sesuai dengan konsepsi manusia tentang keadilan. Untuk memahami apa itu, buku ini mengusulkan pemahaman holistik tentang keadilan, yang memberi tahu kita apa yang harus dicapai oleh sebuah regulasi. 

Dalam 9 bab di dalam buku ini, Chris Reed, gurubesar hukum perdagangan elektronik, menjabarkan ihwal keadilan tersebut. Diawali dengan kebutuhan kita terhadap keputusan berbasis AI yang adil dan setara. Pemakaian AI dari salah-satu pihak, misalnya, yang cenderung mengabaikan pihak lain, maka bisa membuka kemungkinan terjadinya keputusan tak adil. Oleh karena itu, diperlukan regulasi yang tepat terhadap pemakaian AI.

Akan tetapi, regulasi bukanlah aktivitas abstrak – regulasi mengatur perilaku manusia, dan manusia yang dimaksud adalah mereka yang mengembangkan dan menggunakan AI untuk pengambilan keputusan. 

Oleh sebab itu, buku ini menyelidiki bagaimana manusia tersebut berupaya mencapai keadilan berbasis AI. Buku ini menemukan bahwa terdapat ketidaksesuaian serius antara cara para teknolog mengonseptualisasikan keadilan, dibandingkan dengan manusia lainnya. Bagaimana regulasi AI dapat menjembatani kesenjangan ini?

Model regulasi tradisional tidak dapat memecahkan masalah ini. Keadilan terlalu bernuansa, terlalu kontekstual, dan pada akhirnya merupakan respons emosional manusia. 

Sebaliknya, buku ini mengusulkan untuk menempatkan tanggung jawab pada komunitas AI untuk menjelaskan dan membenarkan upaya mereka untuk mencapai keadilan, mendasarkan respons regulasi dan hukum pada seberapa baik penjelasan tersebut menangani risiko yang dihadirkan oleh AI tertentu, dan apakah AI beroperasi sesuai dengan penjelasan yang digunakan. 

Buku ini diakhiri dengan mengkaji sejauh mana model pengaturan ini dapat berguna untuk beberapa masalah sosial lain yang ditimbulkan oleh AI. rmol news logo article

Penulis adalah Periset Surabaya

Read Entire Article
Politik | Local| Daerah| Finance| Sport|