- Published on
Hukum Penskalaan Model AI Belum Mencapai Batasnya Kata CEO Anthropic
Hukum Penskalaan Terus Berlanjut
Meskipun ada kekhawatiran tentang keterbatasan data, CEO Anthropic, Dario Amodei, percaya bahwa hukum penskalaan untuk model AI belum mencapai batasnya. Dia menyarankan bahwa data sintetis dan model penalaran dapat membantu mengatasi kendala data. Ini menunjukkan bahwa potensi pertumbuhan model AI masih sangat besar dan belum sepenuhnya dieksplorasi. Dengan inovasi dalam metode pengumpulan dan pembuatan data, batasan yang sebelumnya dianggap menghambat perkembangan AI dapat diatasi.
Peningkatan Model yang Signifikan
Kemampuan model AI telah meningkat secara signifikan. Sebagai contoh, kinerja pada tolok ukur seperti SWE-bench telah melonjak dari 3-4% menjadi 50% dalam waktu sepuluh bulan saja. Ini adalah bukti nyata dari kemajuan pesat dalam pengembangan model AI. Peningkatan ini bukan hanya sekadar angka, tetapi juga mencerminkan peningkatan kemampuan model dalam memahami dan menyelesaikan tugas-tugas kompleks.
Pentingnya Pelatihan Pasca-Latihan
Biaya pelatihan pasca-latihan kemungkinan akan melampaui biaya pra-pelatihan di masa depan. Metode peningkatan kualitas model yang hanya melibatkan manusia tidak dapat diskalakan. Oleh karena itu, diperlukan metode pengawasan yang lebih terukur. Ini menekankan bahwa proses setelah model dilatih awal menjadi sangat penting dalam membentuk kemampuan akhir model. Pelatihan pasca-latihan ini melibatkan berbagai teknik seperti Reinforcement Learning from Human Feedback (RLHF) dan metode lainnya.
Perbedaan Karakteristik Model
Karakteristik dan perbedaan model tidak selalu dapat ditangkap oleh tolok ukur. Faktor-faktor seperti kesopanan, ketepatan, responsivitas, dan proaktif juga memainkan peran penting. Ini menunjukkan bahwa model AI memiliki dimensi yang lebih luas daripada sekadar kemampuan teknisnya. Aspek-aspek seperti interaksi sosial dan kemampuan beradaptasi dengan konteks yang berbeda juga perlu diperhatikan.
Peran RLHF
Reinforcement Learning from Human Feedback (RLHF) menjembatani kesenjangan komunikasi antara manusia dan model. Hal ini lebih dari sekadar membuat model menjadi lebih pintar. RLHF memungkinkan model untuk memahami preferensi manusia dan berinteraksi dengan cara yang lebih intuitif. Ini merupakan langkah penting dalam membuat model AI lebih mudah digunakan dan diterima oleh masyarakat luas.
Persepsi Pengguna
Perasaan pengguna bahwa model menjadi "lebih bodoh" tidak selalu salah. Hal ini dapat berasal dari kompleksitas model dan banyak faktor yang memengaruhi kinerjanya. Persepsi ini menekankan bahwa model AI tidak selalu berperilaku sesuai dengan harapan pengguna. Pemahaman yang lebih baik tentang kompleksitas model dan bagaimana mereka berinteraksi dengan dunia luar sangat penting untuk menghindari kesalahpahaman.
Desain Model
Model dirancang untuk berfungsi dan menyelesaikan tugas. Mereka tidak dirancang untuk mudah dipahami oleh manusia. Ini adalah pengingat bahwa model AI adalah alat yang dirancang untuk tujuan tertentu, dan pemahaman penuh tentang cara kerjanya mungkin tidak selalu diperlukan atau mungkin bahkan tidak mungkin. Fokusnya adalah pada bagaimana model dapat digunakan untuk memecahkan masalah dan meningkatkan efisiensi.
Pengalaman Praktis
Interaksi langsung dengan model sangat penting untuk memahaminya. Ini lebih baik daripada hanya membaca makalah penelitian. Pengalaman praktis memberikan pemahaman yang lebih mendalam tentang kemampuan model dan batasannya. Ini juga memungkinkan para peneliti dan pengembang untuk mengidentifikasi masalah dan peluang untuk perbaikan.
AI Konstitusional
Pendekatan ini adalah alat untuk meningkatkan model. Ini mengurangi ketergantungan pada RLHF dan meningkatkan pemanfaatan setiap titik data RLHF. AI konstitusional menggunakan serangkaian prinsip untuk memandu pelatihan model, memungkinkan model untuk melatih diri mereka sendiri. Ini adalah langkah maju dalam menciptakan model AI yang lebih efisien dan lebih mudah dikendalikan.
Pengalaman Dario Amodei
Dario Amodei telah berkecimpung di bidang AI selama sekitar 10 tahun. Dia memulai dengan sistem pengenalan suara. Dia mengamati bahwa peningkatan ukuran model, data, dan waktu pelatihan meningkatkan kinerja. Pengalamannya ini memberikan wawasan berharga tentang bagaimana model AI berkembang dan bagaimana mereka dapat ditingkatkan.
Konfirmasi Hukum Penskalaan
Pergeseran dari tahun 2014 hingga 2017 sangat penting. Ini mengkonfirmasi bahwa penskalaan ukuran model dapat mencapai tugas-tugas kognitif yang kompleks. Ini adalah momen penting dalam sejarah AI, karena ini menunjukkan bahwa model yang lebih besar dapat mencapai kemampuan yang jauh lebih tinggi.
Komponen Penskalaan
Penskalaan melibatkan ekspansi linier ukuran jaringan, waktu pelatihan, dan data. Ketiga komponen ini harus ditingkatkan secara proporsional. Ini adalah prinsip dasar dalam pengembangan model AI yang lebih kuat. Peningkatan salah satu komponen saja tidak akan memberikan hasil yang optimal.
Penskalaan di Luar Bahasa
Hukum penskalaan berlaku untuk modalitas lain seperti gambar, video, dan matematika. Ini juga berlaku untuk pasca-pelatihan dan model pengunduran diri baru. Ini menunjukkan bahwa hukum penskalaan adalah prinsip yang berlaku secara universal di berbagai domain AI. Ini bukan hanya terbatas pada pemrosesan bahasa alami.
Memahami Hukum Penskalaan
Konsep ini terkait dengan "1/f noise" dan "distribusi 1/x" dalam fisika. Di mana proses alami memiliki skala yang berbeda, dan model yang lebih besar menangkap pola yang lebih kompleks. Analogi ini membantu kita memahami mengapa model yang lebih besar memiliki kemampuan yang lebih baik. Ini menunjukkan bahwa ada prinsip-prinsip mendasar yang mendasari perkembangan AI.
Batas Penskalaan
Meskipun batas pastinya tidak diketahui, Amodei percaya bahwa penskalaan dapat mencapai kecerdasan tingkat manusia. Beberapa area mungkin memiliki batas yang dekat dengan kemampuan manusia, sementara yang lain memiliki lebih banyak ruang untuk perbaikan. Ini adalah pandangan yang optimis tentang masa depan AI. Ini menunjukkan bahwa potensi AI masih sangat besar dan belum sepenuhnya tereksplorasi.
Keterbatasan Data
Kelangkaan data adalah batasan potensial. Namun, data sintetis dan model penalaran dapat membantu. Ini menunjukkan bahwa ada solusi untuk mengatasi keterbatasan data. Data sintetis dapat digunakan untuk melatih model AI dalam situasi di mana data asli sulit diperoleh.
Batas Komputasi
Skala komputasi saat ini berada dalam miliaran. Diharapkan mencapai puluhan miliar tahun depan, dan berpotensi ratusan miliar pada tahun 2027. Ini menunjukkan bahwa kemampuan komputasi terus meningkat dengan pesat. Ini akan memungkinkan pengembangan model AI yang lebih besar dan lebih kuat.
Seri Claude 3
Anthropic merilis model Claude 3 dengan berbagai ukuran dan kemampuan. Opus (paling kuat), Sonnet (kelas menengah), dan Haiku (cepat dan hemat biaya). Ini menunjukkan bahwa Anthropic berkomitmen untuk mengembangkan berbagai model AI yang memenuhi berbagai kebutuhan pengguna.
Penamaan Model
Nama-nama tersebut terinspirasi dari puisi. Haiku menjadi yang terpendek dan Opus yang paling ekstensif. Ini adalah cara yang unik dan kreatif untuk menamai model AI. Ini juga menunjukkan bahwa Anthropic menghargai seni dan kreativitas.
Evolusi Model
Setiap generasi model baru bertujuan untuk meningkatkan keseimbangan antara kinerja dan biaya. Ini adalah prinsip dasar dalam pengembangan model AI. Tujuannya adalah untuk menciptakan model yang tidak hanya kuat tetapi juga efisien dan hemat biaya.
Proses Pelatihan Model
Proses ini mencakup pra-pelatihan (panjang dan intensif komputasi), pasca-pelatihan (RLHF dan metode RL lainnya), dan pengujian keamanan. Ini adalah proses yang kompleks dan memakan waktu. Ini membutuhkan sumber daya dan keahlian yang signifikan.
Penggunaan Kembali Data RLHF
Data preferensi dari model yang lebih lama dapat digunakan untuk melatih model baru. Ini adalah cara yang efisien untuk memanfaatkan data yang sudah ada. Ini juga membantu mempercepat proses pelatihan model baru.
AI Konstitusional
Metode ini menggunakan serangkaian prinsip untuk memandu pelatihan model. Ini memungkinkan model untuk melatih diri mereka sendiri. Ini adalah langkah maju dalam menciptakan model AI yang lebih efisien dan lebih mudah dikendalikan.
Kepribadian Model
Model memiliki karakteristik unik yang tidak selalu ditangkap oleh tolok ukur. Misalnya, kesopanan dan responsivitas. Ini menunjukkan bahwa model AI memiliki dimensi yang lebih luas daripada sekadar kemampuan teknisnya. Aspek-aspek seperti interaksi sosial dan kemampuan beradaptasi dengan konteks yang berbeda juga perlu diperhatikan.
Kemampuan Coding Sonnet 3.5
Model ini telah menunjukkan peningkatan signifikan dalam coding. Ini menghemat waktu para insinyur dalam tugas-tugas yang sebelumnya memakan waktu berjam-jam. Ini adalah contoh nyata bagaimana model AI dapat meningkatkan produktivitas dan efisiensi.
Kinerja SWE-bench
Tingkat keberhasilan model pada tolok ukur SWE-bench telah meningkat dari 3% menjadi 50% dalam 10 bulan. Ini adalah pencapaian yang signifikan. Ini menunjukkan bahwa model AI semakin mampu menyelesaikan tugas-tugas coding yang kompleks.
Dampak AI pada Pemrograman
Pemrograman diperkirakan akan berubah dengan cepat karena hubungannya yang erat dengan pengembangan AI. AI tidak hanya akan digunakan sebagai alat bantu dalam pemrograman, tetapi juga akan mengubah cara kita berpikir tentang pemrograman.
Peran AI dalam Pemrograman
AI dapat menulis, menjalankan, dan menganalisis kode. Ini menciptakan sistem loop tertutup untuk kemajuan yang cepat. AI akan menjadi bagian integral dari proses pengembangan perangkat lunak. Ini akan memungkinkan para pengembang untuk bekerja lebih efisien dan menghasilkan perangkat lunak yang lebih baik.
Masa Depan Pemrograman
AI diperkirakan akan menangani sebagian besar tugas coding rutin pada tahun 2026 atau 2027. Ini akan memungkinkan manusia untuk fokus pada desain sistem dan arsitektur tingkat tinggi. Ini adalah visi yang transformatif tentang masa depan pemrograman. Ini menunjukkan bahwa peran manusia dalam pemrograman akan berubah, tetapi tidak akan sepenuhnya hilang.
IDE Masa Depan
IDE memiliki potensi signifikan untuk perbaikan. Namun, Anthropic tidak berencana untuk mengembangkan IDE-nya sendiri. Mereka lebih suka menyediakan API bagi orang lain untuk membangun alat. Ini adalah strategi yang bijaksana. Ini memungkinkan Anthropic untuk fokus pada keahlian intinya dan memungkinkan orang lain untuk berinovasi.
Fungsi Penggunaan Komputer
Fitur ini memungkinkan model untuk menganalisis tangkapan layar dan melakukan tindakan dengan mengklik atau menekan tombol. Ini adalah contoh nyata bagaimana model AI dapat berinteraksi dengan dunia digital.
Generalisasi
Kemampuan untuk menggunakan tangkapan layar adalah contoh yang baik dari generalisasi. Di mana model pra-pelatihan yang kuat dapat dengan mudah beradaptasi dengan tugas-tugas baru. Ini menunjukkan bahwa model AI memiliki kemampuan untuk beradaptasi dengan berbagai konteks dan situasi.
Rilis API
Penggunaan Komputer awalnya dirilis sebagai API karena masalah keamanan. Ini adalah langkah yang hati-hati dan bertanggung jawab. Ini memastikan bahwa model AI digunakan dengan aman dan bertanggung jawab.
Tindakan Keamanan
Penting untuk menggunakan model yang kuat ini dengan aman dan mencegah penyalahgunaan. Ini adalah tanggung jawab bersama dari para pengembang dan pengguna. Kita semua harus bekerja sama untuk memastikan bahwa AI digunakan untuk kebaikan.
Kebijakan Penskalaan Bertanggung Jawab (RSP)
Kebijakan ini digunakan untuk menguji model untuk potensi risiko. Ini adalah langkah penting dalam memastikan keamanan dan keandalan model AI.
Tingkat Keamanan AI (ASL)
Model dikategorikan ke dalam tingkat ASL yang berbeda berdasarkan kemampuan dan potensi risikonya. Ini adalah cara yang sistematis untuk mengklasifikasikan model AI berdasarkan tingkat risiko yang mereka timbulkan.
Sandboxing
Sandboxing digunakan selama pelatihan untuk mencegah model berinteraksi dengan dunia nyata. Ini adalah langkah keamanan yang penting. Ini membantu mencegah model AI dari melakukan tindakan yang tidak diinginkan atau berbahaya.
Interpretasi Mekanisme
Ini sangat penting untuk memahami dan mengendalikan model. Terutama pada tingkat ASL yang lebih tinggi. Ini adalah bidang penelitian yang penting. Ini akan membantu kita memahami bagaimana model AI bekerja dan bagaimana mereka dapat dikendalikan.
Tujuan RLHF
RLHF membantu model berkomunikasi lebih baik dengan manusia. Ini bukan membuat mereka lebih pintar secara inheren. Ini menekankan bahwa RLHF adalah alat untuk meningkatkan interaksi antara manusia dan AI.
Melepas Belenggu
RLHF dapat "melepas belenggu" model. Ini menghilangkan beberapa batasan tetapi tidak semua. Ini menunjukkan bahwa RLHF memiliki batasannya. Ini juga menunjukkan bahwa ada batasan lain yang perlu diatasi.
Biaya Pasca-Pelatihan
Biaya pasca-pelatihan diperkirakan akan melebihi biaya pra-pelatihan di masa depan. Ini menekankan bahwa proses setelah model dilatih awal menjadi semakin penting.
Pengawasan Terukur
Metode peningkatan kualitas model yang hanya melibatkan manusia tidak dapat diskalakan. Oleh karena itu, diperlukan metode pengawasan yang lebih terukur. Ini menunjukkan bahwa kita perlu menemukan cara yang lebih efisien untuk melatih model AI.
Model "Kebodohan"
Persepsi pengguna tentang model menjadi "lebih bodoh" mungkin disebabkan oleh kompleksitas model dan kepekaan mereka terhadap perintah. Ini menunjukkan bahwa kita perlu memahami bagaimana model AI bekerja dan bagaimana mereka berinteraksi dengan dunia luar.
Kepribadian Model
Mengendalikan perilaku model itu sulit. Ada trade-off antara karakteristik yang berbeda. Ini menunjukkan bahwa kita perlu memahami bagaimana kita dapat mengendalikan perilaku model AI.
Umpan Balik Pengguna
Umpan balik pengguna sangat penting untuk memahami perilaku model. Namun, sulit untuk mengumpulkan dan menafsirkannya. Ini menunjukkan bahwa kita perlu menemukan cara yang lebih baik untuk mengumpulkan dan menafsirkan umpan balik pengguna.
Persaingan dan Arah Masa Depan
Anthropic bertujuan untuk memberikan contoh bagi perusahaan lain untuk diikuti. Ini mempromosikan pengembangan AI yang bertanggung jawab. Ini menunjukkan bahwa Anthropic berkomitmen untuk mengembangkan AI dengan cara yang aman dan etis.
Interpretasi Mekanisme
Ini adalah bidang penelitian utama untuk Anthropic. Ini bertujuan untuk memahami bagaimana model bekerja secara internal. Ini menunjukkan bahwa Anthropic berkomitmen untuk memahami bagaimana model AI bekerja dan bagaimana mereka dapat dikendalikan.
Desain Model
Model dirancang untuk berfungsi dan menyelesaikan tugas. Mereka tidak dirancang untuk mudah dipahami oleh manusia. Ini adalah pengingat bahwa model AI adalah alat yang dirancang untuk tujuan tertentu.
Bakat AI
Kepadatan bakat terbaik sangat penting untuk sukses. Ini lebih penting daripada hanya tim yang besar. Ini menunjukkan bahwa kualitas lebih penting daripada kuantitas dalam pengembangan AI.
Pola Pikir Terbuka
Pola pikir terbuka dan kemauan untuk bereksperimen adalah kualitas penting bagi peneliti dan insinyur AI. Ini menunjukkan bahwa inovasi dan kreativitas sangat penting dalam pengembangan AI.
Pengalaman Praktis
Interaksi langsung dengan model sangat penting untuk memahaminya. Ini adalah pengingat bahwa pengalaman praktis sangat penting dalam pengembangan AI.
AI Konstitusional
Metode ini memungkinkan model untuk melatih diri mereka sendiri berdasarkan serangkaian prinsip. Ini menunjukkan bahwa AI dapat digunakan untuk melatih AI.
Spesifikasi Model
Konsep ini, mirip dengan AI Konstitusional, mendefinisikan tujuan dan perilaku model. Ini adalah cara yang sistematis untuk menentukan bagaimana model AI akan berperilaku.
Penyalahgunaan Bencana
Ini adalah kekhawatiran utama. Ini melibatkan penyalahgunaan model di bidang-bidang seperti keamanan siber dan senjata biologi. Ini menunjukkan bahwa ada risiko yang signifikan terkait dengan pengembangan AI.
Risiko Otonomi
Ketika model mendapatkan lebih banyak otonomi, penting untuk memastikan bahwa mereka selaras dengan niat manusia. Ini menunjukkan bahwa kita perlu menemukan cara untuk mengendalikan model AI saat mereka menjadi lebih otonom.
Tingkat ASL
Tingkat ini mengkategorikan model berdasarkan kemampuan dan potensi risikonya. Ini adalah cara yang sistematis untuk mengklasifikasikan model AI berdasarkan tingkat risiko yang mereka timbulkan.
Garis Waktu AGI
Garis waktu untuk mencapai AGI tidak pasti. Tetapi bisa dalam beberapa tahun ke depan. Ini menunjukkan bahwa kita mungkin mendekati titik di mana AI akan mencapai kecerdasan tingkat manusia.
AGI dalam Biologi dan Kedokteran
AGI memiliki potensi untuk merevolusi bidang-bidang ini. Ini mempercepat penelitian dan pengembangan. Ini menunjukkan bahwa AI memiliki potensi untuk memberikan dampak yang signifikan pada berbagai bidang.
AI sebagai Asisten Penelitian
Pada tahap awal, AI akan bertindak sebagai asisten penelitian. Ini membantu para ilmuwan dengan eksperimen dan analisis data. Ini menunjukkan bahwa AI akan menjadi alat yang berharga bagi para ilmuwan.
Dampak AI pada Produktivitas
Meskipun AI memiliki potensi untuk meningkatkan produktivitas secara signifikan, ada juga tantangan terkait dengan struktur organisasi dan lambatnya adopsi teknologi baru. Ini menunjukkan bahwa ada tantangan yang perlu diatasi sebelum kita dapat sepenuhnya memanfaatkan potensi AI.