- Published on
Мащабирането на големи езикови модели не е достигнало своя предел според изпълнителния директор на Anthropic
Въведение
В интервю, изпълнителният директор на Anthropic, Дарио Амодей, споделя своите виждания относно настоящото състояние и бъдещето на големите езикови модели (LLM). Той подчертава, че законите за мащабиране все още са валидни и не са достигнали своя предел, въпреки опасенията за ограничения в данните. Според него, синтетичните данни и моделите за разсъждения играят ключова роля за преодоляване на тези ограничения.
Основни идеи
Законът за мащабиране продължава да е валиден
Амодей смята, че мащабирането на AI моделите все още не е достигнало своите граници. Въпреки опасенията за ограничения в данните, той предлага алтернативни методи като синтетични данни и модели за разсъждения, които могат да помогнат за преодоляването им.
Подобрения в моделите
AI моделите бележат значителни подобрения, като представянето им на бенчмаркове като SWE-bench се е увеличило от 3-4% на 50% в рамките на десет месеца. Очакват се и допълнителни подобрения в бъдеще.
Важността на пост-тренировката
Разходите за пост-тренировка вероятно ще надминат тези за предварителната тренировка в бъдеще. Методите, които разчитат единствено на хора за подобряване на качеството на моделите, не са мащабируеми. Затова са необходими по-мащабируеми методи за надзор.
Различия между моделите
Бенчмарковете не винаги успяват да уловят всички характеристики и разлики между моделите. Фактори като учтивост, прямота, отзивчивост и проактивност също играят важна роля.
Ролята на RLHF
Reinforcement Learning from Human Feedback (RLHF) играе ролята на мост между комуникацията на хората и моделите, а не прави моделите по-интелигентни по своята същност.
Потребителски възприятия
Усещането на потребителите, че моделите стават „по-глупави“, не е задължително грешно. То може да се дължи на сложността на моделите и многото фактори, които влияят на тяхната работа.
Дизайн на моделите
Моделите са проектирани да функционират и да изпълняват задачи, а не да бъдат лесно разбираеми за хората.
Практически опит
Директното взаимодействие с моделите е от съществено значение за тяхното разбиране, а не само четенето на научни статии.
Конституционен AI
Този подход е инструмент за подобряване на моделите, намаляване на зависимостта от RLHF и подобряване на използването на всяка RLHF точка от данни.
Предистория и контекст
Опитът на Дарио Амодей
Амодей е в областта на AI от около 10 години, започвайки със системи за разпознаване на реч. Той наблюдава, че увеличаването на размера на модела, данните и времето за обучение подобрява производителността.
Потвърждение на закона за мащабиране
Преходът от 2014 до 2017 г. е ключов, потвърждавайки, че мащабирането на размера на модела може да постигне сложни когнитивни задачи.
Компоненти за мащабиране
Мащабирането включва линейно разширяване на размера на мрежата, времето за обучение и данните. И трите компонента трябва да се увеличат пропорционално.
Мащабиране отвъд езика
Законът за мащабиране се прилага и за други модалности като изображения, видеоклипове и математика. Той се прилага и за пост-тренировка и нови модели за препроектиране.
Разбиране на закона за мащабиране
Концепцията е свързана с "1/f шум" и "1/x разпределение" във физиката, където естествените процеси имат различни мащаби, а по-големите модели улавят по-сложни модели.
Граници на мащабиране
Въпреки че точните граници са неизвестни, Амодей вярва, че мащабирането може да достигне човешко ниво на интелигентност. Някои области може да имат граници, близки до човешките възможности, докато други имат много повече място за подобрение.
Ограничения на данните
Недостигът на данни е потенциално ограничение, но синтетичните данни и моделите за разсъждения могат да помогнат.
Изчислителни ограничения
Настоящите изчислителни мащаби са в милиарди, очаква се да достигнат десетки милиарди през следващата година и потенциално стотици милиарди до 2027 г.
Разработване и характеристики на моделите
Серията Claude 3
Anthropic пусна моделите Claude 3 с различни размери и възможности: Opus (най-мощен), Sonnet (среден клас) и Haiku (бърз и рентабилен).
Наименование на моделите
Имената са вдъхновени от поезията, като Haiku е най-краткият, а Opus е най-обширният.
Еволюция на моделите
Всяко ново поколение модели има за цел да подобри баланса между производителност и цена.
Процес на обучение на модела
Процесът включва предварително обучение (дълго и изчислително интензивно), последващо обучение (RLHF и други RL методи) и тестове за безопасност.
Повторно използване на данни от RLHF
Данните за предпочитания от по-стари модели могат да се използват за обучение на нови модели.
Конституционен AI
Този метод използва набор от принципи за насочване на обучението на модела, позволявайки на моделите да се обучават сами.
Личности на моделите
Моделите имат уникални характеристики, които не винаги се улавят от бенчмарковете, като учтивост и отзивчивост.
Кодиране и IDE
Възможности за кодиране на Sonnet 3.5
Този модел показа значителни подобрения в кодирането, спестявайки на инженерите време за задачи, които преди отнемаха часове.
Производителност на SWE-bench
Процентът на успеваемост на модела на бенчмарка SWE-bench се е увеличил от 3% на 50% за 10 месеца.
Въздействие на AI върху програмирането
Очаква се програмирането да се промени бързо поради тясната си връзка с развитието на AI.
Ролята на AI в програмирането
AI може да пише, изпълнява и анализира код, създавайки система със затворен цикъл за бърз напредък.
Бъдеще на програмирането
Очаква се AI да се справи с повечето рутинни задачи за кодиране до 2026 или 2027 г., позволявайки на хората да се съсредоточат върху системния дизайн и архитектурата на високо ниво.
Бъдещи IDE
IDE имат значителен потенциал за подобрение, но Anthropic не планира да разработва свой собствен IDE. Те предпочитат да предоставят API за други да създават инструменти.
Използване на компютър и безопасност
Функционалност за използване на компютър
Тази функция позволява на моделите да анализират екранни снимки и да изпълняват действия чрез щракване или натискане на клавиши.
Обобщение
Възможността за използване на екранни снимки е добър пример за обобщение, където мощен предварително обучен модел може лесно да се адаптира към нови задачи.
Издаване на API
Използването на компютър първоначално се пуска като API поради опасения за безопасността.
Мерки за безопасност
Важно е тези мощни модели да се използват безопасно и да се предотврати злоупотреба.
Политика за отговорно мащабиране (RSP)
Тази политика се използва за тестване на модели за потенциални рискове.
Нива на безопасност на AI (ASL)
Моделите са категоризирани в различни ASL нива въз основа на техните възможности и потенциални рискове.
Пясъчник
Пясъчникът се използва по време на обучение, за да се предотврати взаимодействието на моделите с реалния свят.
Интерпретируемост на механизма
Това е от решаващо значение за разбирането и контролирането на моделите, особено при по-високи нива на ASL.
RLHF и поведение на модела
Целта на RLHF
RLHF помага на моделите да комуникират по-добре с хората, а не ги прави по-интелигентни по своята същност.
Освобождаване
RLHF може да "освободи" моделите, премахвайки някои ограничения, но не всички.
Разходи за пост-тренировка
Очаква се разходите за пост-тренировка да надхвърлят разходите за предварителна тренировка в бъдеще.
Мащабируем надзор
Методите, които разчитат само на хора за подобряване на качеството на модела, не са мащабируеми, което налага по-мащабируеми методи за надзор.
"Заглупяване" на моделите
Възприятията на потребителите, че моделите стават „по-глупави“, може да се дължат на сложността на моделите и тяхната чувствителност към подкани.
Личности на моделите
Контролирането на поведението на модела е трудно и има компромиси между различните характеристики.
Обратна връзка от потребителите
Обратната връзка от потребителите е от решаващо значение за разбирането на поведението на модела, но е трудно да се събере и интерпретира.
Конкуренция и бъдещи насоки
Надпревара към върха
Anthropic има за цел да даде пример на други компании, насърчавайки отговорното развитие на AI.
Интерпретируемост на механизма
Това е ключова област на изследване за Anthropic, насочена към разбиране на това как работят моделите вътрешно.
Дизайн на моделите
Моделите са проектирани да функционират и да изпълняват задачи, а не да бъдат лесно разбираеми за хората.
AI таланти
Високата концентрация на топ таланти е от решаващо значение за успеха, а не просто голям екип.
Отворен ум
Отвореният ум и готовността за експерименти са важни качества за AI изследователите и инженерите.
Практически опит
Директното взаимодействие с моделите е от решаващо значение за тяхното разбиране.
Конституционен AI
Този метод позволява на моделите да се обучават сами въз основа на набор от принципи.
Спецификация на модела
Тази концепция, подобна на Конституционния AI, определя целите и поведението на модела.
Катастрофална злоупотреба
Това е основна грижа, включваща злоупотреба с модели в области като киберсигурност и биологични оръжия.
Рискове за автономност
Тъй като моделите придобиват по-голяма автономност, е важно да се гарантира, че те са в съответствие с човешките намерения.
ASL нива
Тези нива категоризират моделите въз основа на техните възможности и потенциални рискове.
Хронология на AGI
Хронологията за постигане на AGI е несигурна, но може да бъде в рамките на следващите няколко години.
AGI в биологията и медицината
AGI има потенциал да революционизира тези области, като ускори научните изследвания и разработки.
AI като научен асистент
В ранните етапи AI ще действа като научен асистент, помагайки на учените с експерименти и анализ на данни.
Въздействие на AI върху производителността
Въпреки че AI има потенциал значително да увеличи производителността, има и предизвикателства, свързани с организационните структури и бавното приемане на нови технологии.