Gerakan boikot terhadap ChatGPT meluas di kalangan penggunanya setelah OpenAI, perusahaan di balik chatbot AI populer ini, mengumumkan kesepakatan kerja sama dengan Departemen Pertahanan Amerika Serikat atau Pentagon. Keputusan ini memicu kekhawatiran etis dan berujung pada migrasi sebagian pengguna ke platform AI lain.
Sorotan publik terhadap kesepakatan ini muncul pasca-kejadian serupa yang melibatkan Anthropic, pesaing OpenAI. Pemerintahan Donald Trump sebelumnya berupaya mengakhiri kontrak dengan Anthropic. Kekhawatiran utama startup AI tersebut adalah potensi penyalahgunaan produk mereka untuk pengawasan massal dan pengembangan senjata otonom yang mematikan.
CEO Anthropic, Dario Amodei, menyatakan bahwa perusahaannya tidak dapat menyetujui permintaan tersebut atas dasar prinsip moral. Ia mengungkapkan bahwa pemerintah AS mengancam akan memberi label "risiko rantai pasokan" pada Anthropic. Label ini biasanya ditujukan untuk negara musuh dan belum pernah diterapkan pada perusahaan domestik Amerika.
Reaksi keras datang dari mantan Presiden Donald Trump. Melalui platform Truth Social, Trump mengkritik Anthropic, menyebut tindakan mereka sebagai "KESALAHAN FATAL" karena dianggap mencoba menekan Departemen Perang. Ia berpendapat bahwa Anthropic seharusnya mematuhi konstitusi, bukan memaksakan ketentuan layanan mereka kepada pemerintah.
Peristiwa ini tampaknya memberikan dorongan signifikan bagi chatbot Anthropic, Claude. Aplikasi Claude dilaporkan melonjak ke posisi teratas di daftar aplikasi gratis Apple, bahkan melampaui popularitas ChatGPT.
Di sisi lain, CEO OpenAI, Sam Altman, menjelaskan bahwa kesepakatan dengan Pentagon memungkinkan militer AS untuk mengintegrasikan teknologi AI OpenAI ke dalam sistem mereka yang bersifat rahasia. Altman menegaskan bahwa Departemen Pertahanan memiliki komitmen kuat terhadap aspek keselamatan.
"Dua prinsip keselamatan terpenting kami adalah larangan pengawasan massal domestik dan penegakan tanggung jawab manusia dalam penggunaan kekuatan, termasuk untuk sistem senjata otonom," ujar Altman. Ia menambahkan bahwa Departemen Pertahanan AS telah menyepakati prinsip-prinsip ini dan mengintegrasikannya ke dalam hukum, kebijakan, serta perjanjian kerja sama mereka.
Namun, pernyataan Altman justru memicu gelombang boikot yang lebih luas. Salah satu diskusi teratas di komunitas Reddit r/ChatGPT, yang memiliki jutaan anggota, menyerukan pengguna untuk membatalkan langganan mereka. Unggahan tersebut secara gamblang menyatakan bahwa OpenAI telah "membuat kesepakatan dengan iblis", dan Sam Altman dianggap memprioritaskan keuntungan dari sektor pertahanan di atas prinsip-prinsip dasar pendirian perusahaan.
Kampanye boikot yang dimotori oleh QuitGPT juga menyoroti dugaan bahwa OpenAI lebih mengutamakan keuntungan daripada keselamatan publik. Situs QuitGPT menuliskan bahwa pada 27 Februari, Anthropic telah menolak memberikan akses tanpa batas kepada Pentagon untuk AI-nya, demi mencegah pengawasan massal terhadap warga Amerika atau pembuatan senjata AI yang mematikan tanpa kendali manusia.
QuitGPT menuduh Sam Altman, CEO ChatGPT, dengan cepat menerima "kesepakatan korup Pentagon" hanya dalam hitungan jam. Tindakan ini dianggap menempatkan semua orang dalam bahaya AI mematikan demi keuntungan perusahaan. Mereka mengklaim OpenAI menyetujui penggunaan teknologi mereka oleh Pentagon untuk tujuan apa pun yang dianggap sah, termasuk aplikasi seperti "robot pembunuh" dan pengawasan massal.
Organisasi QuitGPT berargumen bahwa banyak pengguna yang keliru menganggap ChatGPT sebagai satu-satunya asisten AI yang mumpuni. Mereka mendorong masyarakat untuk beralih ke platform AI alternatif. Beberapa rekomendasi yang mereka berikan mencakup solusi yang diklaim memiliki privasi lebih tinggi dan bersifat open-source, seperti Confer, Alpine, dan Lumo. Selain itu, mereka juga menyebut Gemini dari Google dan Claude dari Anthropic sebagai alternatif yang patut dipertimbangkan.
Sebagai bentuk protes nyata, QuitGPT juga merencanakan aksi unjuk rasa langsung di depan markas besar OpenAI di San Francisco, yang dijadwalkan pada 3 Maret. Gerakan ini menunjukkan adanya perdebatan sengit mengenai etika pengembangan dan penerapan teknologi kecerdasan buatan, terutama ketika bersinggungan dengan kepentingan militer dan potensi penyalahgunaan.









Tinggalkan komentar