Kecerdasan buatan dan kepribadian: Interaksi antara agensi dan tanggung jawab
Kecerdasan buatan (AI) merupakan istilah umum yang mencakup berbagai pendekatan komputasi, mulai dari pembelajaran mesin hingga pemrosesan bahasa alami dan visi komputer. Hal ini mencakup beragam fungsi[1] untuk integrasi dan analisis data dan informasi melalui interaksi yang kompleks[2] antara logika, probabilitas, matematika, persepsi, penalaran, pembelajaran, atau tindakan. Sebagai hasil dari fungsi-fungsi yang luas dan aplikasi tujuan umum, AI memiliki dampak transformatif yang potensial di berbagai sektor[3] seperti keuangan, keamanan nasional, perawatan kesehatan, peradilan pidana, transportasi, kota pintar, dan pasar tenaga kerja. Teknologi ini telah menjadi aspek yang merasuk dalam kehidupan sehari-hari[4] dengan aplikasi pengenalan suara, layanan pelanggan, klasifikasi gambar, dan mesin rekomendasi yang digunakan di berbagai aplikasi dan produk seluler komersial, mulai dari Apple Siri dan Amazon Alexa hingga kendaraan otonom.
Namun, baru-baru ini, munculnya AI generatif[5] menimbulkan pertanyaan kritis tentang implikasi[6] dampak transformatifnya di berbagai isu[7] seperti hak cipta dan kekayaan intelektual, privasi data dan perlindungan konsumen, masa depan pekerjaan, dan keamanan produk. Hal ini, pada gilirannya, menimbulkan pertanyaan tentang badan hukum untuk AI, yaitu apakah AI harus dianggap sebagai badan hukum yang terpisah untuk regulasi.
Menentukan tanggung jawab perdata AI[8] telah menjadi aspek penting dalam penetapan standar dan inovasi AI, terutama karena adanya kekhawatiran seputar potensi bias, misrepresentasi, ‘halusinasi’ atau pembuatan informasi palsu, dan teka-teki etika yang kompleks yang mungkin harus dinavigasi oleh sistem AI. Sebuah contoh ilustratif diberikan melalui proyek Moral Machine dari MIT[9], yang merupakan alat perangkat lunak online yang dirancang[10] untuk mengumpulkan umpan balik dari masyarakat tentang keputusan moral yang harus diambil oleh mobil tanpa sopir. Ini termasuk dilema moral[11] seperti siapa yang harus diprioritaskan oleh mobil jika terjadi kecelakaan yang akan datang-penumpang atau pejalan kaki? Atau apakah mereka harus menentukan hasilnya dengan mengurutkan orang berdasarkan usia mereka (seperti anak-anak di atas orang dewasa) atau jumlah (menyelamatkan lebih banyak orang di atas satu orang) atau kriteria lain yang relevan.
Badan buatan dan pendekatan peraturan
Menerapkan pendekatan tradisional dalam menangani tanggung jawab menjadi rumit[12] ketika menyangkut AI karena ketidakpastian dan agen penyebab tanpa badan hukum. Hal ini melibatkan ketidakjelasan atau ketidakjelasan algoritme AI atau ketidakmampuan untuk melacak rantai sebab akibat di balik keluaran AI untuk menentukan di mana letak tanggung jawab jika terjadi konsekuensi yang merugikan. Hal ini menjadi sangat diperdebatkan ketika isu-isu dibingkai[13] di sekitar apakah pilihan yang dibuat oleh sistem dan model AI bergantung pada agen, yang kemudian menimbulkan pertanyaan tentang siapa agen itu ketika datang untuk menentukan tanggung jawab atas dasar keluaran AI generatif – apakah pengembang, penyebar, atau sistem AI itu sendiri? Masalah-masalah ini semakin diperparah dalam kasus sistem AI multi-model[14] dan multimodal[15], yang melibatkan penggabungan model-model AI dasar seperti Large Language Models (LLM) dengan kemampuan AI yang lebih luas, serta di mana sistem AI dapat menarik wawasan dari berbagai jenis data yang melibatkan teks, gambar, suara, dan video.
Subjek hukum dapat mencakup orang perseorangan dan badan hukum, di mana badan hukum mengacu pada subjek hukum yang bukan orang perseorangan, misalnya, korporasi.[16] Gagasan tentang orang menjadi penting bagi suatu entitas untuk bertindak dalam hukum, bertanggung jawab, atau bahkan bertindak atas nama orang lain seperti dalam hubungan prinsipal-agen. Yang terakhir ini mengasumsikan hubungan hukum yang spesifik antara prinsipal dan agen, di mana agen bertindak atas nama prinsipal, di mana menjadi sangat penting untuk menetapkan otoritas agen atau sejauh mana agen diizinkan untuk bertindak atas nama prinsipal. Namun, konsepsi keagenan hukum dan gagasan tentang keagenan artifisial memunculkan pertanyaan-pertanyaan penting seputar lokasi tanggung jawab dan kewajiban.
Agen artifisial berasal dari seperangkat elemen yang saling terkait dalam suatu sistem, yang merespons lingkungan mereka dan yang menjalankan fungsi untuk agen lain di mana otonominya berasal dari sifat mengarahkan diri sendiri dan mengatur diri sendiri. Dalam konsepsi ini, agen-agen buatan akan dikualifikasikan sebagai objek atau alat hukum, bukan sebagai subjek hukum. Hal ini menyebabkan munculnya seruan untuk mengatur sistem semacam itu dalam rezim pertanggungjawaban produk melalui pendekatan manajemen risiko[17] di mana pihak yang paling mampu mengendalikan atau mengelola risiko terkait teknologi bertanggung jawab secara ketat sebagai pintu masuk tunggal litigasi. Hal ini selaras dengan pendekatan Eropa[18] yang lebih luas dan rekomendasi Kelompok Ahli tentang pertanggungjawaban untuk AI dan teknologi baru lainnya yang tidak memberikan kedudukan hukum kepada AI.[19] Hal ini membuat para pengembang dan penyebar bertanggung jawab atas risiko bahaya atau kerusakan yang timbul dari sistem sambil mewajibkan pengguna untuk mengoperasikan dan memelihara teknologi dengan aman.[20]
Namun, ada beberapa kekurangan dari posisi ini. Sebagian besar sistem AI cenderung merupakan produk dari perjanjian lintas batas yang kompleks antara banyak pengembang[21], penyebar, dan pengguna sebelum mencapai pengguna akhir di mana mungkin menjadi tidak mungkin untuk mengidentifikasi seseorang yang bertanggung jawab dalam jaringan internasional yang saling bergantung ini. Selain itu, karena sifat sistem AI yang tidak jelas dan dapat belajar sendiri, risiko bahaya atau kerusakan dapat terjadi dengan cara yang tidak dapat diprediksi[22] oleh pihak-pihak yang bertanggung jawab atas pengembangan dan penerapannya, sehingga sulit untuk menentukan tanggung jawab pada entitas tertentu.
Namun, pemberian personalitas hukum AI juga perlu menghadapi pertanyaan hukum yang pelik di berbagai dimensi hukum[23], yaitu apakah AI dapat memiliki properti, menandatangani kontrak, mengajukan atau disebutkan dalam gugatan, memiliki hak khusus, dan kompetensi hukum lainnya seperti membeli dan menjual sebagai aktor komersial atau memiliki kekayaan intelektual. Lebih lanjut, memberikan AI sebagai badan hukum akan membebaskan pemilik[24], produsen, atau pengembang dari tanggung jawab atas kreasi mereka. Meskipun hukum dapat memberikan badan hukum[25] kepada suatu entitas jika legislatif menganggapnya penting untuk melindungi hak dan kepentingan warganya, badan hukum yang melibatkan hukum pidana atau pelanggaran hak-hak konstitusional seperti privasi dan non-diskriminasi tampaknya membutuhkan entitas yang dapat dimintai pertanggungjawaban atas tindakan mereka. Ketika badan hukum seperti korporasi dimintai pertanggungjawaban dalam kondisi seperti itu, meskipun mereka tidak dapat dipenjara, bentuk hukuman lain dapat diterapkan seperti pengenaan denda, penghentian operasi, atau penutupan organisasi. Mengingat pesatnya laju perkembangan teknologi dan konsekuensinya terhadap masyarakat dan ekonomi, masih harus dilihat bagaimana isu-isu ini akan diselesaikan, apakah melalui undang-undang dan/atau inovasi hukum atau komersial.
Langkah ke depan
Personalitas hukum untuk AI masih menjadi topik yang diperdebatkan dengan argumen yang sama kuatnya di kedua sisi perdebatan dengan dilema etika dan hukum yang belum terselesaikan. Beberapa komentator berpendapat bahwa ada versi khusus dari personalitas hukum terbatas untuk sistem AI yang analog dengan karakteristik spesifik mereka.[26] Di sisi lain, dapat dikatakan bahwa pertanyaan tentang personalitas hukum harus ditangguhkan ketika kecerdasan umum buatan atau AI yang memiliki kesadaran menjadi sebuah kenyataan. Sementara itu, pendekatan komputasi AI yang ada saat ini dapat ditangani dengan memperbarui hukum yang ada[27], menyusun undang-undang baru, atau memasukkan rezim perizinan seperti pra-otorisasi aplikasi yang dapat diterima atau model yang mirip dengan operasi Food and Drug Administration di AS. Pertanyaan tentang AI dan personalitas hukum terus menjadi pertanyaan terbuka tanpa adanya yurisdiksi di dunia yang saat ini memberikan hak atau tanggung jawab hukum kepada AI.[28]
Namun, seiring dengan meningkatnya kekhawatiran akan pelanggaran hak cipta dan privasi, terutama di era deepfake, semakin menjadi pusat perhatian[29], begitu pula dengan pertanyaan seputar hak, tanggung jawab, dan kewajiban. Risiko bahaya tidak lagi terbatas pada dilema moral teoretis tetapi telah memiliki implikasi dunia nyata bagi warga negara. Ketika India berupaya menyeimbangkan transformasi yang dipimpin oleh AI[30] sembari mengurangi bahaya dari dampak buruknya[31], India telah mengakui perlunya menetapkan standar untuk pertanggungjawaban perdata untuk AI dengan membangun pembelajaran dari berbagai yurisdiksi. Draf laporan[32] dari Komite Keamanan Siber, Keselamatan, Hukum, dan Masalah Etika yang diselenggarakan oleh MeitY (Kementerian Elektronik dan Teknologi Informasi) menyoroti perlunya para pemangku kepentingan untuk mempertimbangkan pertanyaan tentang kedudukan hukum untuk sistem AI. Namun, mereka memperingatkan bahwa pemberian status hukum tersebut harus disertai dengan skema asuransi atau dana kompensasi untuk mengganti kerugian. Ke depannya, regulasi untuk AI perlu mengidentifikasi cara untuk menyeimbangkan inovasi, hak, dan tanggung jawab untuk menentukan pendekatan hukum atau peraturan di mana kewajiban dan pemulihan dapat dengan jelas dibagi dan digambarkan. Hal ini akan melibatkan konseptualisasi kemampuan agen sistem AI bersama dengan pertimbangan pragmatis untuk proses penyelarasan kapasitas otonom, agensi kausal, dan tanggung jawab yang akan membantu mengidentifikasi dan merancang instrumen hukum atau kerangka kerja peraturan yang sesuai.
[1] West, D. M., & Allen, J. R. (2018, April 24). How artificial intelligence is transforming the world. Brookings. https://www.brookings.edu/articles/how-artificial-intelligence-is-transforming-the-world/
[2] Artificial Intelligence: A Modern Approach, 4th US ed. (n.d.). https://aima.cs.berkeley.edu/
[3] West, D. M., & Allen, J. R. (2018b, April 24). How artificial intelligence is transforming the world. Brookings. https://www.brookings.edu/articles/how-artificial-intelligence-is-transforming-the-world/
[4] What is Artificial Intelligence (AI)? (n.d.). IBM. https://www.ibm.com/topics/artificial-intelligence
[5] Ibid.
[6] Guest. (2023, October 2). Role of generative AI in India. Financial Express. https://www.financialexpress.com/business/digital-transformation-role-of-generative-ai-in-india-3260455
[7] Papakonstantinou, V. (2020, November 25). Refusing to award legal personality to AI: Why the European Parliament got it wrong. European Law Blog. https://europeanlawblog.eu/2020/11/25/refusing-to-award-legal-personality-to-ai-why-the-european-parliament-got-it-wrong/
[8] Civil liability of artificial intelligence. (n.d.). INDIAai. https://indiaai.gov.in/ai-standards/civil-liability-of-artificial-intelligence
[9] Project Overview ‹ Moral Machine – MIT Media Lab. (n.d.). MIT Media Lab. https://www.media.mit.edu/projects/moral-machine/overview/
[10] Moral machine. (n.d.). Moral Machine. https://www.moralmachine.net/
[11] The MIT Press, Massachusetts Institute of Technology. (2024, January 12). Book details – MIT Press. MIT Press. https://mitpress.mit.edu/9780262045797/
[12] Civil liability of artificial intelligence. (n.d.). INDIAai. https://indiaai.gov.in/ai-standards/civil-liability-of-artificial-intelligence
[13] Hildebrandt, M. (2019, June 2). 9. Legal personhood for AI? Law For Computer Scientists. https://lawforcomputerscientists.pubpub.org/pub/4swyxhx5/release/5
[14] Miskawi, F. (2023, September 18). The future of artificial intelligence is a multi-model ecosystem. CGI. https://www.cgi.com/en/blog/artificial-intelligence/future-artificial-intelligence-multi-model-ecosystem
[15] Chatterjee, P. (2023, October 10). What is multimodal artificial intelligence and why is it important? The Hindu. https://www.thehindu.com/sci-tech/technology/what-is-multimodal-artificial-intelligence-and-why-is-it-important/article67401139.ece
[16] Hildebrandt, M. (2019b, June 2). 9. Legal personhood for AI? Law For Computer Scientists. https://lawforcomputerscientists.pubpub.org/pub/4swyxhx5/release/5
[17] Artificial Intelligence and Civil Liability. (2020, July 14). European Parliament. https://www.europarl.europa.eu/thinktank/en/document/IPOL_STU(2020)621926
[18] REPORT FROM THE COMMISSION TO THE EUROPEAN PARLIAMENT, THE COUNCIL AND THE EUROPEAN ECONOMIC AND SOCIAL COMMITTEE. (2020, February 19). EUROPEAN COMMISSION. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52020DC0064
[19]Publications Office of the European Union. (2019). Liability for artificial intelligence and other emerging digital technologies. Publications Office of the EU. https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en
[20] Papakonstantinou, V. (2020b, November 25). Refusing to award legal personality to AI: Why the European Parliament got it wrong. European Law Blog. https://europeanlawblog.eu/2020/11/25/refusing-to-award-legal-personality-to-ai-why-the-european-parliament-got-it-wrong/
[21] Ibid.
[22] Hildebrandt, M. (2019b, June 2). 9. Legal personhood for AI? Law For Computer Scientists. https://lawforcomputerscientists.pubpub.org/pub/4swyxhx5/release/5
[23] Eliot, L. (2023, October 5). Legal personhood for AI is taking a sneaky path that makes AI law and AI ethics very nervous indeed. Forbes. https://www.forbes.com/sites/lanceeliot/2022/11/21/legal-personhood-for-ai-is-taking-a-sneaky-path-that-makes-ai-law-and-ai-ethics-very-nervous-indeed/?sh=3a6b603ef48a
[24] Should India recognise Artificial Intelligence as an artificial person? (2023, February 15). Moneycontrol. https://www.moneycontrol.com/news/opinion/should-india-recognise-artificial-intelligence-as-an-artificial-person-10085551.html
[25] Hildebrandt, M. (2019b, June 2). 9. Legal personhood for AI? Law For Computer Scientists. https://lawforcomputerscientists.pubpub.org/pub/4swyxhx5/release/5
[26] Eliot, L. (2023b, October 5). Legal personhood for AI is taking a sneaky path that makes AI law and AI ethics very nervous indeed. Forbes. https://www.forbes.com/sites/lanceeliot/2022/11/21/legal-personhood-for-ai-is-taking-a-sneaky-path-that-makes-ai-law-and-ai-ethics-very-nervous-indeed/?sh=3a6b603ef48a
[27] Civil liability of artificial intelligence. (n.d.-b). INDIAai. https://indiaai.gov.in/ai-standards/civil-liability-of-artificial-intelligence
[28] Anand, S. (2023, May 24). Opinion: Time To Explore AI’s Legal Rights? NDTV. https://www.ndtv.com/opinion/time-to-determine-legal-rights-for-robots-4057252
[29] Citron, D. K., & Chesney, R. (2019, December). Deep Fakes: a looming challenge for privacy, democracy, and national security. Scholarly Commons at Boston University School of Law. https://scholarship.law.bu.edu/faculty_scholarship/640/
[30] Seven MeitY AI Working Groups submit first edition of India AI Report. (2023, October 13). Ministry of Electronics & IT. https://pib.gov.in/PressReleaseIframePage.aspx?PRID=1967487
[31] Ians. (2024, January 17). Centre to notify strict IT rules soon to tackle deepfake issue: Rajeev Chandrasekhar. The Economic Times. https://economictimes.indiatimes.com/tech/technology/centre-to-notify-strict-it-rules-soon-to-tackle-deepfake-issue-rajeev-chandrasekhar/articleshow/106922098.cms?from=mdr
[32] Ministry of Electronics & Information Technology Government of India.Report of Committee- D on Cyber Security, Safety, Legal and Ethnical Issues. https://www.meity.gov.in/writereaddata/files/Committes_D-Cyber-n-Legal-and-Ethical.pdf