Tech

Apple menandatangani komitmen Rumah Putih untuk keselamatan AI

Apple menandatangani komitmen sukarela Rumah Putih untuk mengembangkan AI yang aman, aman, dan dapat dipercaya, menurut rilis pers pada hari Jumat. Perusahaan akan segera meluncurkan penawaran AI generatifnya, Apple Intelligence, ke produk inti-nya, menempatkan AI generatif di depan 2 miliar pengguna Apple.

Apple bergabung dengan 15 perusahaan teknologi lainnya — termasuk Amazon, Anthropic, Google, Inflection, Meta, Microsoft, dan OpenAI — yang berkomitmen untuk aturan dasar Rumah Putih dalam mengembangkan AI generatif pada bulan Juli 2023. Saat itu, Apple belum mengungkapkan seberapa dalam rencananya untuk menjadikan AI bagian dari iOS. Namun, kita mendengar Apple dengan jelas di WWDC pada bulan Juni: Mereka berinvestasi sepenuhnya dalam AI generatif, dimulai dengan kemitraan yang menanamkan ChatGPT di iPhone. Sebagai sasaran sering dari regulator federal, Apple ingin menunjukkan sejak dini bahwa mereka bersedia mematuhi aturan Rumah Putih tentang AI — sebuah upaya mungkin untuk memperoleh simpati sebelum pertempuran regulasi AI di masa depan pecah.

Tapi seberapa efektif komitmen sukarela Apple kepada Rumah Putih? Tidak terlalu efektif, tapi ini adalah awal. Rumah Putih menyebut ini sebagai "langkah pertama" menuju Apple dan 15 perusahaan AI lainnya mengembangkan AI yang aman, aman, dan dapat dipercaya. Langkah kedua adalah perintah eksekutif AI dari Presiden Biden pada bulan Oktober, dan ada beberapa rancangan undang-undang yang sedang bergerak melalui badan legislatif federal dan negara bagian untuk lebih mengatur model-model AI.

Dalam komitmen ini, perusahaan AI berjanji untuk melakukan red-team (bertindak sebagai peretas musuh untuk menguji ketahanan langkah-langkah keamanan sebuah organisasi) model-model AI sebelum dirilis ke publik dan membagikan informasi tersebut dengan publik. Komitmen sukarela Rumah Putih juga meminta perusahaan AI untuk memperlakukan bobot model AI yang belum dirilis secara rahasia. Apple dan perusahaan lain setuju untuk bekerja pada bobot model AI di lingkungan yang aman, membatasi akses ke bobot model sebanyak mungkin. Terakhir, perusahaan AI setuju untuk mengembangkan sistem label konten, seperti watermarking, untuk membantu pengguna membedakan apa yang dihasilkan oleh AI dan apa yang tidak.

Secara terpisah, Departemen Perdagangan mengatakan akan segera merilis laporan tentang manfaat potensial, risiko, dan implikasi dari model-model dasar open-source. AI open-source semakin menjadi medan perang regulasi yang dipolitisasi. Beberapa pihak ingin membatasi seberapa mudah bobot model dari model AI yang kuat harus diakses demi keamanan. Namun, hal ini bisa secara signifikan membatasi ekosistem startup dan penelitian AI. Sikap Rumah Putih di sini bisa berdampak signifikan pada industri AI secara keseluruhan.

Rumah Putih juga mencatat bahwa badan-badan federal telah membuat kemajuan signifikan dalam tugas-tugas yang ditetapkan dalam perintah eksekutif Oktober. Badan-badan federal telah melakukan lebih dari 200 perekrutan terkait AI hingga saat ini, memberikan akses kepada lebih dari 80 tim penelitian ke sumber daya komputasi, dan merilis beberapa kerangka kerja untuk pengembangan AI (pemerintah suka kerangka kerja).

Related Articles

Back to top button Back to top button