Published on

Hukum Penskalaan Model AI Belum Mencapai Batasnya Kata CEO Anthropic

Penulis
  • avatar
    Nama
    Ajax
    Twitter

Hukum Penskalaan Terus Berlanjut

Meskipun ada kekhawatiran tentang keterbatasan data, CEO Anthropic, Dario Amodei, percaya bahwa hukum penskalaan untuk model AI belum mencapai batasnya. Dia menyarankan bahwa data sintetis dan model penalaran dapat membantu mengatasi kendala data. Ini menunjukkan bahwa potensi pertumbuhan model AI masih sangat besar dan belum sepenuhnya dieksplorasi. Dengan inovasi dalam metode pengumpulan dan pembuatan data, batasan yang sebelumnya dianggap menghambat perkembangan AI dapat diatasi.

Peningkatan Model yang Signifikan

Kemampuan model AI telah meningkat secara signifikan. Sebagai contoh, kinerja pada tolok ukur seperti SWE-bench telah melonjak dari 3-4% menjadi 50% dalam waktu sepuluh bulan saja. Ini adalah bukti nyata dari kemajuan pesat dalam pengembangan model AI. Peningkatan ini bukan hanya sekadar angka, tetapi juga mencerminkan peningkatan kemampuan model dalam memahami dan menyelesaikan tugas-tugas kompleks.

Pentingnya Pelatihan Pasca-Latihan

Biaya pelatihan pasca-latihan kemungkinan akan melampaui biaya pra-pelatihan di masa depan. Metode peningkatan kualitas model yang hanya melibatkan manusia tidak dapat diskalakan. Oleh karena itu, diperlukan metode pengawasan yang lebih terukur. Ini menekankan bahwa proses setelah model dilatih awal menjadi sangat penting dalam membentuk kemampuan akhir model. Pelatihan pasca-latihan ini melibatkan berbagai teknik seperti Reinforcement Learning from Human Feedback (RLHF) dan metode lainnya.

Perbedaan Karakteristik Model

Karakteristik dan perbedaan model tidak selalu dapat ditangkap oleh tolok ukur. Faktor-faktor seperti kesopanan, ketepatan, responsivitas, dan proaktif juga memainkan peran penting. Ini menunjukkan bahwa model AI memiliki dimensi yang lebih luas daripada sekadar kemampuan teknisnya. Aspek-aspek seperti interaksi sosial dan kemampuan beradaptasi dengan konteks yang berbeda juga perlu diperhatikan.

Peran RLHF

Reinforcement Learning from Human Feedback (RLHF) menjembatani kesenjangan komunikasi antara manusia dan model. Hal ini lebih dari sekadar membuat model menjadi lebih pintar. RLHF memungkinkan model untuk memahami preferensi manusia dan berinteraksi dengan cara yang lebih intuitif. Ini merupakan langkah penting dalam membuat model AI lebih mudah digunakan dan diterima oleh masyarakat luas.

Persepsi Pengguna

Perasaan pengguna bahwa model menjadi "lebih bodoh" tidak selalu salah. Hal ini dapat berasal dari kompleksitas model dan banyak faktor yang memengaruhi kinerjanya. Persepsi ini menekankan bahwa model AI tidak selalu berperilaku sesuai dengan harapan pengguna. Pemahaman yang lebih baik tentang kompleksitas model dan bagaimana mereka berinteraksi dengan dunia luar sangat penting untuk menghindari kesalahpahaman.

Desain Model

Model dirancang untuk berfungsi dan menyelesaikan tugas. Mereka tidak dirancang untuk mudah dipahami oleh manusia. Ini adalah pengingat bahwa model AI adalah alat yang dirancang untuk tujuan tertentu, dan pemahaman penuh tentang cara kerjanya mungkin tidak selalu diperlukan atau mungkin bahkan tidak mungkin. Fokusnya adalah pada bagaimana model dapat digunakan untuk memecahkan masalah dan meningkatkan efisiensi.

Pengalaman Praktis

Interaksi langsung dengan model sangat penting untuk memahaminya. Ini lebih baik daripada hanya membaca makalah penelitian. Pengalaman praktis memberikan pemahaman yang lebih mendalam tentang kemampuan model dan batasannya. Ini juga memungkinkan para peneliti dan pengembang untuk mengidentifikasi masalah dan peluang untuk perbaikan.

AI Konstitusional

Pendekatan ini adalah alat untuk meningkatkan model. Ini mengurangi ketergantungan pada RLHF dan meningkatkan pemanfaatan setiap titik data RLHF. AI konstitusional menggunakan serangkaian prinsip untuk memandu pelatihan model, memungkinkan model untuk melatih diri mereka sendiri. Ini adalah langkah maju dalam menciptakan model AI yang lebih efisien dan lebih mudah dikendalikan.

Pengalaman Dario Amodei

Dario Amodei telah berkecimpung di bidang AI selama sekitar 10 tahun. Dia memulai dengan sistem pengenalan suara. Dia mengamati bahwa peningkatan ukuran model, data, dan waktu pelatihan meningkatkan kinerja. Pengalamannya ini memberikan wawasan berharga tentang bagaimana model AI berkembang dan bagaimana mereka dapat ditingkatkan.

Konfirmasi Hukum Penskalaan

Pergeseran dari tahun 2014 hingga 2017 sangat penting. Ini mengkonfirmasi bahwa penskalaan ukuran model dapat mencapai tugas-tugas kognitif yang kompleks. Ini adalah momen penting dalam sejarah AI, karena ini menunjukkan bahwa model yang lebih besar dapat mencapai kemampuan yang jauh lebih tinggi.

Komponen Penskalaan

Penskalaan melibatkan ekspansi linier ukuran jaringan, waktu pelatihan, dan data. Ketiga komponen ini harus ditingkatkan secara proporsional. Ini adalah prinsip dasar dalam pengembangan model AI yang lebih kuat. Peningkatan salah satu komponen saja tidak akan memberikan hasil yang optimal.

Penskalaan di Luar Bahasa

Hukum penskalaan berlaku untuk modalitas lain seperti gambar, video, dan matematika. Ini juga berlaku untuk pasca-pelatihan dan model pengunduran diri baru. Ini menunjukkan bahwa hukum penskalaan adalah prinsip yang berlaku secara universal di berbagai domain AI. Ini bukan hanya terbatas pada pemrosesan bahasa alami.

Memahami Hukum Penskalaan

Konsep ini terkait dengan "1/f noise" dan "distribusi 1/x" dalam fisika. Di mana proses alami memiliki skala yang berbeda, dan model yang lebih besar menangkap pola yang lebih kompleks. Analogi ini membantu kita memahami mengapa model yang lebih besar memiliki kemampuan yang lebih baik. Ini menunjukkan bahwa ada prinsip-prinsip mendasar yang mendasari perkembangan AI.

Batas Penskalaan

Meskipun batas pastinya tidak diketahui, Amodei percaya bahwa penskalaan dapat mencapai kecerdasan tingkat manusia. Beberapa area mungkin memiliki batas yang dekat dengan kemampuan manusia, sementara yang lain memiliki lebih banyak ruang untuk perbaikan. Ini adalah pandangan yang optimis tentang masa depan AI. Ini menunjukkan bahwa potensi AI masih sangat besar dan belum sepenuhnya tereksplorasi.

Keterbatasan Data

Kelangkaan data adalah batasan potensial. Namun, data sintetis dan model penalaran dapat membantu. Ini menunjukkan bahwa ada solusi untuk mengatasi keterbatasan data. Data sintetis dapat digunakan untuk melatih model AI dalam situasi di mana data asli sulit diperoleh.

Batas Komputasi

Skala komputasi saat ini berada dalam miliaran. Diharapkan mencapai puluhan miliar tahun depan, dan berpotensi ratusan miliar pada tahun 2027. Ini menunjukkan bahwa kemampuan komputasi terus meningkat dengan pesat. Ini akan memungkinkan pengembangan model AI yang lebih besar dan lebih kuat.

Seri Claude 3

Anthropic merilis model Claude 3 dengan berbagai ukuran dan kemampuan. Opus (paling kuat), Sonnet (kelas menengah), dan Haiku (cepat dan hemat biaya). Ini menunjukkan bahwa Anthropic berkomitmen untuk mengembangkan berbagai model AI yang memenuhi berbagai kebutuhan pengguna.

Penamaan Model

Nama-nama tersebut terinspirasi dari puisi. Haiku menjadi yang terpendek dan Opus yang paling ekstensif. Ini adalah cara yang unik dan kreatif untuk menamai model AI. Ini juga menunjukkan bahwa Anthropic menghargai seni dan kreativitas.

Evolusi Model

Setiap generasi model baru bertujuan untuk meningkatkan keseimbangan antara kinerja dan biaya. Ini adalah prinsip dasar dalam pengembangan model AI. Tujuannya adalah untuk menciptakan model yang tidak hanya kuat tetapi juga efisien dan hemat biaya.

Proses Pelatihan Model

Proses ini mencakup pra-pelatihan (panjang dan intensif komputasi), pasca-pelatihan (RLHF dan metode RL lainnya), dan pengujian keamanan. Ini adalah proses yang kompleks dan memakan waktu. Ini membutuhkan sumber daya dan keahlian yang signifikan.

Penggunaan Kembali Data RLHF

Data preferensi dari model yang lebih lama dapat digunakan untuk melatih model baru. Ini adalah cara yang efisien untuk memanfaatkan data yang sudah ada. Ini juga membantu mempercepat proses pelatihan model baru.

AI Konstitusional

Metode ini menggunakan serangkaian prinsip untuk memandu pelatihan model. Ini memungkinkan model untuk melatih diri mereka sendiri. Ini adalah langkah maju dalam menciptakan model AI yang lebih efisien dan lebih mudah dikendalikan.

Kepribadian Model

Model memiliki karakteristik unik yang tidak selalu ditangkap oleh tolok ukur. Misalnya, kesopanan dan responsivitas. Ini menunjukkan bahwa model AI memiliki dimensi yang lebih luas daripada sekadar kemampuan teknisnya. Aspek-aspek seperti interaksi sosial dan kemampuan beradaptasi dengan konteks yang berbeda juga perlu diperhatikan.

Kemampuan Coding Sonnet 3.5

Model ini telah menunjukkan peningkatan signifikan dalam coding. Ini menghemat waktu para insinyur dalam tugas-tugas yang sebelumnya memakan waktu berjam-jam. Ini adalah contoh nyata bagaimana model AI dapat meningkatkan produktivitas dan efisiensi.

Kinerja SWE-bench

Tingkat keberhasilan model pada tolok ukur SWE-bench telah meningkat dari 3% menjadi 50% dalam 10 bulan. Ini adalah pencapaian yang signifikan. Ini menunjukkan bahwa model AI semakin mampu menyelesaikan tugas-tugas coding yang kompleks.

Dampak AI pada Pemrograman

Pemrograman diperkirakan akan berubah dengan cepat karena hubungannya yang erat dengan pengembangan AI. AI tidak hanya akan digunakan sebagai alat bantu dalam pemrograman, tetapi juga akan mengubah cara kita berpikir tentang pemrograman.

Peran AI dalam Pemrograman

AI dapat menulis, menjalankan, dan menganalisis kode. Ini menciptakan sistem loop tertutup untuk kemajuan yang cepat. AI akan menjadi bagian integral dari proses pengembangan perangkat lunak. Ini akan memungkinkan para pengembang untuk bekerja lebih efisien dan menghasilkan perangkat lunak yang lebih baik.

Masa Depan Pemrograman

AI diperkirakan akan menangani sebagian besar tugas coding rutin pada tahun 2026 atau 2027. Ini akan memungkinkan manusia untuk fokus pada desain sistem dan arsitektur tingkat tinggi. Ini adalah visi yang transformatif tentang masa depan pemrograman. Ini menunjukkan bahwa peran manusia dalam pemrograman akan berubah, tetapi tidak akan sepenuhnya hilang.

IDE Masa Depan

IDE memiliki potensi signifikan untuk perbaikan. Namun, Anthropic tidak berencana untuk mengembangkan IDE-nya sendiri. Mereka lebih suka menyediakan API bagi orang lain untuk membangun alat. Ini adalah strategi yang bijaksana. Ini memungkinkan Anthropic untuk fokus pada keahlian intinya dan memungkinkan orang lain untuk berinovasi.

Fungsi Penggunaan Komputer

Fitur ini memungkinkan model untuk menganalisis tangkapan layar dan melakukan tindakan dengan mengklik atau menekan tombol. Ini adalah contoh nyata bagaimana model AI dapat berinteraksi dengan dunia digital.

Generalisasi

Kemampuan untuk menggunakan tangkapan layar adalah contoh yang baik dari generalisasi. Di mana model pra-pelatihan yang kuat dapat dengan mudah beradaptasi dengan tugas-tugas baru. Ini menunjukkan bahwa model AI memiliki kemampuan untuk beradaptasi dengan berbagai konteks dan situasi.

Rilis API

Penggunaan Komputer awalnya dirilis sebagai API karena masalah keamanan. Ini adalah langkah yang hati-hati dan bertanggung jawab. Ini memastikan bahwa model AI digunakan dengan aman dan bertanggung jawab.

Tindakan Keamanan

Penting untuk menggunakan model yang kuat ini dengan aman dan mencegah penyalahgunaan. Ini adalah tanggung jawab bersama dari para pengembang dan pengguna. Kita semua harus bekerja sama untuk memastikan bahwa AI digunakan untuk kebaikan.

Kebijakan Penskalaan Bertanggung Jawab (RSP)

Kebijakan ini digunakan untuk menguji model untuk potensi risiko. Ini adalah langkah penting dalam memastikan keamanan dan keandalan model AI.

Tingkat Keamanan AI (ASL)

Model dikategorikan ke dalam tingkat ASL yang berbeda berdasarkan kemampuan dan potensi risikonya. Ini adalah cara yang sistematis untuk mengklasifikasikan model AI berdasarkan tingkat risiko yang mereka timbulkan.

Sandboxing

Sandboxing digunakan selama pelatihan untuk mencegah model berinteraksi dengan dunia nyata. Ini adalah langkah keamanan yang penting. Ini membantu mencegah model AI dari melakukan tindakan yang tidak diinginkan atau berbahaya.

Interpretasi Mekanisme

Ini sangat penting untuk memahami dan mengendalikan model. Terutama pada tingkat ASL yang lebih tinggi. Ini adalah bidang penelitian yang penting. Ini akan membantu kita memahami bagaimana model AI bekerja dan bagaimana mereka dapat dikendalikan.

Tujuan RLHF

RLHF membantu model berkomunikasi lebih baik dengan manusia. Ini bukan membuat mereka lebih pintar secara inheren. Ini menekankan bahwa RLHF adalah alat untuk meningkatkan interaksi antara manusia dan AI.

Melepas Belenggu

RLHF dapat "melepas belenggu" model. Ini menghilangkan beberapa batasan tetapi tidak semua. Ini menunjukkan bahwa RLHF memiliki batasannya. Ini juga menunjukkan bahwa ada batasan lain yang perlu diatasi.

Biaya Pasca-Pelatihan

Biaya pasca-pelatihan diperkirakan akan melebihi biaya pra-pelatihan di masa depan. Ini menekankan bahwa proses setelah model dilatih awal menjadi semakin penting.

Pengawasan Terukur

Metode peningkatan kualitas model yang hanya melibatkan manusia tidak dapat diskalakan. Oleh karena itu, diperlukan metode pengawasan yang lebih terukur. Ini menunjukkan bahwa kita perlu menemukan cara yang lebih efisien untuk melatih model AI.

Model "Kebodohan"

Persepsi pengguna tentang model menjadi "lebih bodoh" mungkin disebabkan oleh kompleksitas model dan kepekaan mereka terhadap perintah. Ini menunjukkan bahwa kita perlu memahami bagaimana model AI bekerja dan bagaimana mereka berinteraksi dengan dunia luar.

Kepribadian Model

Mengendalikan perilaku model itu sulit. Ada trade-off antara karakteristik yang berbeda. Ini menunjukkan bahwa kita perlu memahami bagaimana kita dapat mengendalikan perilaku model AI.

Umpan Balik Pengguna

Umpan balik pengguna sangat penting untuk memahami perilaku model. Namun, sulit untuk mengumpulkan dan menafsirkannya. Ini menunjukkan bahwa kita perlu menemukan cara yang lebih baik untuk mengumpulkan dan menafsirkan umpan balik pengguna.

Persaingan dan Arah Masa Depan

Anthropic bertujuan untuk memberikan contoh bagi perusahaan lain untuk diikuti. Ini mempromosikan pengembangan AI yang bertanggung jawab. Ini menunjukkan bahwa Anthropic berkomitmen untuk mengembangkan AI dengan cara yang aman dan etis.

Interpretasi Mekanisme

Ini adalah bidang penelitian utama untuk Anthropic. Ini bertujuan untuk memahami bagaimana model bekerja secara internal. Ini menunjukkan bahwa Anthropic berkomitmen untuk memahami bagaimana model AI bekerja dan bagaimana mereka dapat dikendalikan.

Desain Model

Model dirancang untuk berfungsi dan menyelesaikan tugas. Mereka tidak dirancang untuk mudah dipahami oleh manusia. Ini adalah pengingat bahwa model AI adalah alat yang dirancang untuk tujuan tertentu.

Bakat AI

Kepadatan bakat terbaik sangat penting untuk sukses. Ini lebih penting daripada hanya tim yang besar. Ini menunjukkan bahwa kualitas lebih penting daripada kuantitas dalam pengembangan AI.

Pola Pikir Terbuka

Pola pikir terbuka dan kemauan untuk bereksperimen adalah kualitas penting bagi peneliti dan insinyur AI. Ini menunjukkan bahwa inovasi dan kreativitas sangat penting dalam pengembangan AI.

Pengalaman Praktis

Interaksi langsung dengan model sangat penting untuk memahaminya. Ini adalah pengingat bahwa pengalaman praktis sangat penting dalam pengembangan AI.

AI Konstitusional

Metode ini memungkinkan model untuk melatih diri mereka sendiri berdasarkan serangkaian prinsip. Ini menunjukkan bahwa AI dapat digunakan untuk melatih AI.

Spesifikasi Model

Konsep ini, mirip dengan AI Konstitusional, mendefinisikan tujuan dan perilaku model. Ini adalah cara yang sistematis untuk menentukan bagaimana model AI akan berperilaku.

Penyalahgunaan Bencana

Ini adalah kekhawatiran utama. Ini melibatkan penyalahgunaan model di bidang-bidang seperti keamanan siber dan senjata biologi. Ini menunjukkan bahwa ada risiko yang signifikan terkait dengan pengembangan AI.

Risiko Otonomi

Ketika model mendapatkan lebih banyak otonomi, penting untuk memastikan bahwa mereka selaras dengan niat manusia. Ini menunjukkan bahwa kita perlu menemukan cara untuk mengendalikan model AI saat mereka menjadi lebih otonom.

Tingkat ASL

Tingkat ini mengkategorikan model berdasarkan kemampuan dan potensi risikonya. Ini adalah cara yang sistematis untuk mengklasifikasikan model AI berdasarkan tingkat risiko yang mereka timbulkan.

Garis Waktu AGI

Garis waktu untuk mencapai AGI tidak pasti. Tetapi bisa dalam beberapa tahun ke depan. Ini menunjukkan bahwa kita mungkin mendekati titik di mana AI akan mencapai kecerdasan tingkat manusia.

AGI dalam Biologi dan Kedokteran

AGI memiliki potensi untuk merevolusi bidang-bidang ini. Ini mempercepat penelitian dan pengembangan. Ini menunjukkan bahwa AI memiliki potensi untuk memberikan dampak yang signifikan pada berbagai bidang.

AI sebagai Asisten Penelitian

Pada tahap awal, AI akan bertindak sebagai asisten penelitian. Ini membantu para ilmuwan dengan eksperimen dan analisis data. Ini menunjukkan bahwa AI akan menjadi alat yang berharga bagi para ilmuwan.

Dampak AI pada Produktivitas

Meskipun AI memiliki potensi untuk meningkatkan produktivitas secara signifikan, ada juga tantangan terkait dengan struktur organisasi dan lambatnya adopsi teknologi baru. Ini menunjukkan bahwa ada tantangan yang perlu diatasi sebelum kita dapat sepenuhnya memanfaatkan potensi AI.