GenPI.co - Bagaimana kamu mengetahui jika suatu sistem kecerdasan buatan (AI) begitu kuat sehingga menimbulkan bahaya keamanan dan tidak boleh dilepaskan tanpa pengawasan yang cermat?
Dilansir AP News, bagi regulator yang mencoba membatasi AI, sebagian besar masalahnya adalah aritmatika.
Secara khusus, model AI yang dilatih pada 10 hingga 26 operasi floating-point sekarang harus dilaporkan ke pemerintah AS dan dapat segera memicu persyaratan yang lebih ketat di California.
BACA JUGA: Ikuti AS, Kanada Mengenakan Tarif 100% pada Impor Kendaraan Listrik Buatan China
Bagaimana? Nah, jika kamu menghitung angka nol, itu berarti 100.000.000.000.000.000.000.000.000.000, atau 100 septiliun, kalkulasi untuk melatih sistem AI pada kumpulan data yang sangat besar.
Apa yang diisyaratkan kepada sejumlah pembuat undang-undang dan pendukung keamanan AI adalah tingkat daya komputasi yang mungkin memungkinkan teknologi AI yang berkembang pesat untuk membuat atau menyebarkan senjata pemusnah massal, atau melakukan serangan siber yang dahsyat.
BACA JUGA: Hyundai All-new KONA Electric Pakai Baterai Buatan Dalam Negeri, Desain Futuristis!
Mereka yang telah menyusun regulasi semacam itu mengakui bahwa regulasi tersebut merupakan titik awal yang tidak sempurna untuk membedakan sistem AI generatif berkinerja tertinggi saat ini.
Sebagian besar dibuat oleh perusahaan berbasis di California seperti Anthropic, Google, Meta Platforms, dan pembuat ChatGPT OpenAI, dari generasi berikutnya yang mungkin bahkan lebih canggih.
BACA JUGA: Kamala Harris dan Donald Trump Berbeda Soal Kebijakan Kecerdasan Buatan
Para kritikus mengecam ambang batas tersebut sebagai sesuatu yang sewenang-wenang, sebuah upaya pemerintah untuk mengatur matematika.
Silakan baca konten menarik lainnya dari GenPI.co di Google News