Китайская компания обучила свою модель до уровня GPT-4 всего за $3 млнКак сообщает Tomshardware (
https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-company-trained-gpt-4-rival-with-just-2-000-gpus-01-ai-spent-usd3m-compared-to-openais-usd80m-to-usd100m), китайская компания 01. ai продемонстрировала то, что для обучения мощной модели искусственного (
https://t.me/russian_osint)интеллекта не всегда требуются значительные инвестиции.
Модель Yi-Lightning заняла почётное шестое место по производительности в рейтинге LMSIS Университета Беркли. 01. ai потратила на обучение модели всего $3 млн, используя (
https://t.me/russian_osint)2000 графических процессоров,
что существенно ниже затрат OpenAI на GPT-4 (от $80 до $100 млн) и предполагаемых $1 млрд на GPT-5.Руководитель компании Кай-Фу (
https://t.me/russian_osint)Ли подчеркнул:
ограниченные финансовые и технологические ресурсы, вызванные экспортными ограничениями США на передовые графические процессоры, лишь только простимулировали внедрение высокоэффективных инженерных решений в Китае. В рейтинге даже обогнала немного
GPT-4o-2024-05-13 и
Claude 3.5 Sonnet (20241022). Умеют же люди, когда руки из правильного места растут.
https://lmarena.ai/?leaderboard@Russian_OSINT - цинк
Вот это правильный подход. Создавать эффективный продукт кратно дешевле чем у оппонентов.
На такой подход и надо ориентироваться.