Home Civil Society Voices Bahaya dihadapi pengguna dengan AI dan apa perlu dilakukan (Malay/English)

Bahaya dihadapi pengguna dengan AI dan apa perlu dilakukan (Malay/English)

GROWTIKA/PIXABAY

Follow us on our Malay and English WhatsApp, Telegram, Instagram, Tiktok and Youtube channels.

[ENGLISH VERSION BELOW] Hari Hak Pengguna Sedunia ialah kempen PBB yang disambut setiap tahun pada 15 Mac sejak 1983 dan tumpuan tahun ini adalah pada tema “AI yang adil dan bertanggungjawab untuk pengguna”.

Ini adalah tumpuan utama yang tepat kerana kecerdasan buatan (Artificial Intelligence atau AI) menjadi sangat meluas dalam kehidupan kita dan masyarakat kita.

Sebenarnya AI wujud sejak sekian lama tetapi baru-baru ini dengan peningkatan penggunaan AI oleh pengguna setiap hari, kita menyedari betapa bersepadunya AI dalam kehidupan kita dan betapa kita bergantung kepadanya.

Ia hanya praktikal untuk mengakui bahawa AI berada di sini untuk kekal. Memandangkan kita tidak boleh menjauhkan diri daripada AI, maka menjadi penting bagi kita untuk mengenal pasti bahaya dan masalah yang dihadapi oleh orang ramai kerana penggunaan AI supaya ia boleh diurus atua diperbetulkan.

Pada tahun lepas istilah “scamdemic” dicipta memandangkan negara kita mengalami peningkatan besar dalam penipuan, ini termasuk penduduk tempatan yang ditipu atau penipu yang beroperasi di Malaysia untuk menipu orang di luar negara. Senjata terbaharu dalam senjata penipu ini ialah penggunaan deepfakes yang dihasilkan oleh AI untuk menipu orang.

Deepfakes ini termasuk suara palsu seseorang yang mangsa kenali sama ada meminta untuk meminjam wang untuk kecemasan atau malah mereka diculik dan dipindahkan wang sebagai wang tebusan ke dalam akaun bank penculik (penipu).

Isu lain ialah “halusinasi” yang dialami oleh beberapa model bahasa besar (large language models atau LLM) apabila menjawab soalan yang ditanya oleh orang sebenar.

Untuk konteks ini, ChatGPT, salah satu aplikasi paling terkenal yang meletakkan AI di barisan hadapan dalam fikiran semua orang, ialah LLM – ia adalah kategori khusus AI generatif.

Apabila seseorang bertanya kepada LLM soalan yang tidak dapat dijawab, ia akan mula mencipta jawapan dengan ‘fakta’ palsu dan juga boleh memberikan petikan palsu.

Ini bukan sahaja berbahaya untuk pelajar yang mungkin menggunakan aplikasi yang serupa dengan ChatGPT sebagai pengganti enjin carian biasa untuk penyelidikan dan banyak lagi, tetapi juga untuk orang biasa yang mencari sesuatu perubatan, undang-undang dan sebagainya.

Terdapat juga kekurangan ketelusan mengenai apa maklumat yang dikumpul oleh sistem AI dan cara AI itu berfungsi dan membuat keputusan. Seperti semua perkara, pengguna mempunyai hak untuk mengetahui bagaimana cara model AI tertentu berfungsi dan bagaimana cara ia mempengaruhi mereka dan orang di sekeliling mereka.

Maklumat salah juga merupakan satu lagi isu besar. Sebagai contoh, maklumat salah boleh digunakan untuk menyebarkan ketakutan atau mungkin juga untuk mempengaruhi pengundi ke arah tertentu. Algoritma AI digunakan untuk menyasarkan individu tertentu berdasarkan sejarah carian mereka tanpa mengira sama ada maklumat yang ditolak itu betul atau tidak.

Ini berbahaya kerana penyebaran maklumat salah boleh menentukan keputusan perkara seperti pemilihan pemimpin.

Pengiklanan yang disasarkan adalah salah satu masalah yang wujud sejak sekian lama.

Walau bagaimanapun, baharu sekarang pengguna lebih sedar mengenai AI bahawa mereka sedar isu pengiklanan yang disasarkan sebenarnya merupakan pelanggaran besar terhadap privasi mereka kerana sejumlah besar data peribadi mereka sedang dikumpulkan dan dijual kepada syarikat pihak ketiga supaya mereka boleh menyasarkan iklan mereka dan produk mereka kepada pengguna.

Memandangkan semua faktor yang boleh menjadikan AI berbahaya kepada pengguna, kita perlu mempunyai penyelesaian untuk mengatasi bahaya ini.

Masalah AI bukanlah unik untuk Malaysia tetapi adalah sesuatu yang dialami di seluruh dunia. EU telah menghasilkan Akta AI, perundangan yang akan mengawal model dan aplikasi AI berdasarkan potensi risiko yang ditimbulkan kepada orang ramai. Peraturan yang lebih ketat akan digunakan untuk aplikasi yang lebih berisiko, dan sistem AI yang mempunyai “risiko yang tidak boleh diterima’ akan diharamkan sama sekali.

Pada Januari tahun ini kerajaan Malaysia mengumumkan bahawa mereka sedang dalam proses mewujudkan tadbir urus AI dan kod etika yang perlu dilakukan menjelang tahun ini. Kod etika ini kemudiannya akan digunakan untuk mewujudkan peraturan AI Malaysia.

Persatuan Pengguna Pulau Pinang (CAP) menggesa kerajaan untuk menggubal undang-undang AI yang serupa dengan Akta AI EU.

Bagi pengguna untuk berasa selamat mempunyai AI dalam kehidupan mereka, syarikat pembangunan AI perlu telus dan bertanggungjawab terhadap sistem AI mereka. Peraturan yang lebih ketat diperlukan untuk memastikan hak asasi manusia dilindungi.

Mohideen Abdul Kader ialah presiden Persatuan Pengguna Pulau Pinang (CAP)

English version

Dangers consumers face with AI and what to do about it

World Consumer Rights Day is a UN-accredited campaign that has been celebrated annually on 15 March since 1983, and this year’s focus is on the theme of “Fair and Responsible AI for Consumers”.

This is an apt focus point as artificial intelligence (AI) has become extremely pervasive in our lives and our society. The truth is AI has been around for a long time but it is only recently with the rise in the use of AI by the everyday consumer that we have become aware of how integrated AI is in our lives and how much we have become dependent on it.

It is only practical to admit that AI is here to stay. Since we cannot distance ourselves from AI, it then becomes vital for us to identify the dangers and problems that the public faces because of the use of AI so that they can be managed or rectified.

Last year the term “scamdemic” was coined as our country had experienced a major increase in scams. This includes locals being scammed or scammers operating in Malaysia to scam people overseas.

The latest weapon in these scammers’ arsenal is the use of deepfakes generated by AI to scam people. These deepfakes include the faked voice of someone the victim knows either asking to borrow money for an emergency or even suggeting they have been kidnapped and to transfer money as ransom into the kidnappers’ (scammers’) bank account.

Another issue is the “hallucination” that some large language models (LLM) experience when answering a question asked by a real person.

For context, ChatGPT, one of the most famous applications that put AI at the forefront of everyone’s minds, is an LLM – it is a specific category of generative AI.

When someone asks an LLM a question it cannot answer, it will begin to invent an answer with bogus ‘facts’ and can even give fake citations.

This is not only dangerous for students who may be using applications similar to ChatGPT instead of a typical search engines for research but also for the lay person looking up something medical or legal.

There is also a lack of transparency on what information is collected by an AI system and how that AI works and makes decisions. As with everything else,  consumers have a right to know how a particular AI model works and how it is influencing them and the people around them.

Misinformation is also another big issue. For instance, misinformation can be used to spread fear or maybe even to sway a voter in a certain direction. AI algorithms are used to target certain individuals based on their search history regardless of whether the information being pushed is factually sound or not. This is dangerous because the spread of misinformation can determine the outcome of things like the election of leaders.

Targeted advertising is one of those problems that have been around for quite a while. However, it is only now that consumers are more aware of AI that they are aware that the issue of targeted advertising is actually a big violation of their privacy, as mass quantities of their personal data are being collected and sold to third-party companies so they can target their advertisements and their products to consumers.

Considering all the factors that can make AI harmful to consumers, we need to have a solution to counteract these dangers.

AI problems are not unique to Malaysia but are something experienced worldwide. The EU has come up with an AI Act, a legislation that will regulate AI models and applications based on the potential risk they pose to the public. Stricter rules will be applied to riskier applications, and AI systems that have an unacceptable risk will be banned altogether.

In January this year, the Malaysian government announced it was in the process of establishing an AI governance and code of ethics, which should be done by this year. This code of ethics will then be used to create Malaysian AI regulations.

The Consumers’ Association of Penang (CAP) calls on the government to enact laws for AI similar to those of the EU’s AI Act. For consumers to feel safe having AI in their lives, AI development companies need to be transparent and accountable for their AI systems. Strict regulations are needed to ensure that human rights are protected.

Mohideen Abdul Kader is president of the Consumers’ Association of Penang

The views expressed in Aliran's media statements and the NGO statements we have endorsed reflect Aliran's official stand. Views and opinions expressed in other pieces published here do not necessarily reflect Aliran's official position.

AGENDA RAKYAT - Lima perkara utama
  1. Tegakkan maruah serta kualiti kehidupan rakyat
  2. Galakkan pembangunan saksama, lestari serta tangani krisis alam sekitar
  3. Raikan kerencaman dan keterangkuman
  4. Selamatkan demokrasi dan angkatkan keluhuran undang-undang
  5. Lawan rasuah dan kronisme
Support our work by making a donation. Tap to download the QR code below and scan this QR code from Gallery by using TnG e-wallet or most banking apps:
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Most Read

0
Would love your thoughts, please comment.x
()
x