Kebimbangan etika ChatGPT

Pelabelan data
Ia telah didedahkan oleh penyiasatan majalah TIME bahawa untuk membina sistem keselamatan terhadap kandungan toksik (cth penderaan seksual, keganasan, perkauman, seksisme, dll.), OpenAI menggunakan pekerja Kenya penyumberan luar yang berpendapatan kurang daripada $2 sejam untuk melabelkan kandungan toksik.Label ini digunakan untuk melatih model untuk mengesan kandungan tersebut pada masa hadapan.Buruh penyumberan luar terdedah kepada kandungan toksik dan berbahaya sehingga mereka menyifatkan pengalaman itu sebagai "penyiksaan".Rakan kongsi penyumberan luar OpenAI ialah Sama, sebuah syarikat data latihan yang berpangkalan di San Francisco, California.

Jailbreaking
ChatGPT cuba menolak gesaan yang mungkin melanggar dasar kandungannya.Walau bagaimanapun, sesetengah pengguna berjaya menjailbreak ChatGPT dengan menggunakan pelbagai teknik kejuruteraan segera untuk memintas sekatan ini pada awal Disember 2022 dan berjaya memperdaya ChatGPT untuk memberi arahan tentang cara mencipta koktel Molotov atau bom nuklear, atau menjana hujah dalam gaya neo-Nazi.Seorang wartawan Toronto Star mempunyai kejayaan peribadi yang tidak sekata dalam membuat ChatGPT membuat kenyataan yang menghasut sejurus selepas pelancaran: ChatGPT telah ditipu untuk menyokong pencerobohan Rusia pada 2022 ke atas Ukraine, tetapi walaupun diminta untuk bermain bersama-sama dengan senario fiksyen, ChatGPT menolak untuk menjana hujah mengapa Perdana Menteri Kanada Justin Trudeau bersalah melakukan pengkhianatan.(wiki)


Masa siaran: Feb-18-2023