OpenAI masih menimbang untuk rilis alat deteksi tulisan dari ChatGPT

Estimated read time 2 min read

Jakarta (ANTARA) – Perusahaan teknologi kecerdasan buatan (AI) OpenAI disebut masih mempertimbangkan keputusannya meluncurkan alat pendeteksi teks buatan ChatGPT.

Perusahaan yang dipimpin oleh Sam Altman mengatakan pihaknya mengambil pendekatan yang hati-hati karena kompleksitas dan potensi dampak di luar OpenAI jika alat deteksi tersebut dirilis sekarang.

Mengutip dari TechCrunch (Minggu 4/8), OpenAI sebenarnya sedang menjajaki metode pemberian tanda air yang tampak menjanjikan pada teks yang dihasilkan AI.

Seorang juru bicara OpenAI kemudian menambahkan: “Namun, (metode watermarking) memiliki risiko yang signifikan, termasuk kerentanan terhadap pembajakan oleh pelaku jahat dan potensi memberikan dampak yang tidak proporsional kepada kelompok seperti penutur non-Inggris, yang telah kami perhitungkan saat mencari alternatif lain.”

Pendekatan ini juga telah diadopsi dan bisa dikatakan berbeda karena upaya industri sebelumnya untuk mendeteksi teks yang dihasilkan AI dianggap sebagian besar tidak efektif.

OpenAI sendiri sebenarnya telah merilis pendeteksi teks AI pada tahun 2023, yang menyebabkan fitur tersebut ditutup karena tingkat akurasinya yang rendah.

Berkat tanda air pada teks, OpenAI akan fokus mendeteksi teks hanya dari ChatGPT dan bukan dari model perusahaan lain.

Hal ini akan dilakukan dengan membuat perubahan kecil pada cara ChatGPT memilih kata, yang pada dasarnya membuat tanda air yang tidak terlihat pada teks yang kemudian dapat dideteksi oleh alat terpisah.

Dalam postingan blog OpenAI pada Mei 2024, perusahaan tersebut mengungkapkan beberapa hasil penelitiannya dalam mendeteksi konten yang dihasilkan AI.

Ternyata metode watermark teks yang dihasilkan AI sebenarnya sangat akurat dan bahkan efektif untuk format teks kompleks seperti parafrase.

Namun di sisi lain, watermark dinilai kurang valid untuk diterapkan di seluruh dunia karena banyaknya kerentanan keamanan.

Beberapa di antaranya mungkin termasuk teks yang dibuat menggunakan penerjemah untuk menghindari deteksi, mengubah kata dengan model pembangkit lainnya, dan pada akhirnya meminta model untuk menambahkan karakter khusus di antara setiap kata untuk menghindari deteksi.

Jika diterapkan secara global, sistem stigma bisa saja ditipu oleh pihak yang tidak bertanggung jawab.

Selain itu, penelitian ini mencatat bahwa watermarking berpotensi menimbulkan stigma buruk karena dapat menstigmatisasi penggunaan AI sebagai alat tulis yang berguna bagi penutur non-Inggris.

You May Also Like

More From Author

+ There are no comments

Add yours