Оригинальное видео:The End of Coding: Andrej Karpathy on Agents, AutoResearch, and the Loopy Era of AI
Ссылка на видео:https://www.youtube.com/watch?v=kwSVtQ7dziU
Примечание:ниже — переработанная по спикерам русская версия перевода с китайского. Ради читаемости удалены лишь немногочисленные бессмысленные слова-паразиты, а очень короткие реплики-вставки объединены с соседними высказываниями; ключевое содержание полностью сохранено, с акцентом на разделение реплик ведущего и Andrej Karpathy.
Фрагменты из вступления
Andrej Karpathy:
«Сейчас уже не очень точно говорить “писать код”. Точнее так: я каждый день по 16 часов выражаю намерение своим агентам (agents), чтобы что-то происходило».
Andrej Karpathy:
«Как мне сделать так, чтобы я открывал не только один диалог в Claude Code, Codex или каком-то другом агентном фреймворке, а одновременно больше? Как мне сделать это правильно? Сейчас сам агент почти стал предпосылкой “по умолчанию”, и сущности вроде Claude тоже всё больше становятся предпосылкой “по умолчанию”. Ты можешь иметь несколько одновременно, можешь давать им инструкции и дальше оптимизировать эти инструкции. И это невероятно затягивает: оно почти как бесконечное разворачивание, и при этом всё выглядит как “вопрос навыка”».
Основная часть
Ведущий:
Добро пожаловать обратно в No Priors. Сегодня у нас Andrej Karpathy: поговорим о кодовых агентах (agents), инженерии и будущем AI-исследований, о том, как больше людей смогут участвовать в исследованиях, что происходит в робототехнике, как агенты будут дальше проникать в реальный мир, и каким будет образование следующей эпохи.
Последние несколько месяцев в AI реально очень захватывающие. Я помню, как однажды зашёл в офис — ты был полностью “в потоке”. Я спросил, чем ты занимаешься, а ты сказал, что теперь тебе приходится “кодить” по 16 часов в день — хотя даже слово “кодить” уже неточное; скорее ты постоянно раздаёшь агентам указания. Что произошло? Как это ощущается изнутри?
Andrej Karpathy:
Я сейчас часто нахожусь в состоянии своего рода “AI-одержимости”, и уже довольно давно. Потому что для отдельного человека внезапно резко открылся верхний предел возможностей. Раньше узким местом были скорость набора, скорость реализации, то, сколько всего ты сам можешь делать параллельно; но где-то к декабрю прошлого года ощущение было такое, будто что-то щёлкнуло и “перевернулось”.
Раньше это было примерно 80% пишу сам и 20% делегирую агенту; потом постепенно стало 20/80; а сейчас — ещё экстремальнее. Начиная с декабря я, кажется, почти вообще не набирал код руками — буквально несколько строк. Это колоссальная перемена.
И мне кажется, обычные люди пока не осознали, насколько драматично всё изменилось. Сейчас возьми любого разработчика, сидящего на рабочем месте: его “дефолтный” рабочий процесс по сравнению с прошлым годом — уже не тот же самый процесс. Поэтому я всё время пробую: могу ли я открывать не только один Claude Code или Codex? Могу ли я открыть сразу кучу? Как их диспетчеризировать? Как сделать это более системно?
Я вижу в Twitter, как многие делают разные новые штуки, и это звучит очень разумно. И у меня возникает сильная тревога: если я не на самом переднем крае, мне очень не по себе. Потому что, по сути, эта область ещё очень-очень далека от того, чтобы быть полностью исследованной.
Ведущий:
Если даже ты нервничаешь, то всем остальным тем более стоит нервничать. Мы работали с одной командой, где инженеры уже не пишут код вручную. У каждого микрофон, и они постоянно вполголоса разговаривают со своими агентами. Раньше я думал, что они сошли с ума, а теперь скорее думаю: ага, вы просто раньше вошли в это состояние.
Как ты считаешь, что сейчас является настоящим узким местом, ограничивающим твою способность исследовать или делать проекты?
Andrej Karpathy:
Во многих случаях ограничение не похоже на “возможности не существует”, а скорее на “ты ещё недостаточно умеешь этим пользоваться”. Если что-то не заводится, моя первая реакция часто не “модель плохая”, а: не слишком ли плохо я объяснил? Не подключил ли я нормально систему памяти? Не нарезал ли я задачу достаточно чётко? Не распараллелил ли я процесс достаточно хорошо?
Иными словами, многие проблемы — это скорее проблема навыка (skill issue), а не возможностей (capability issue).
Ты начинаешь мыслить репозиторием на более макроуровне. Раньше ты думал “написать строку кода”, “реализовать функцию”; сейчас ты думаешь “эту новую фичу отдать агенту A”, “другую, не конфликтующую, — агенту B”, “третьего агента отправить на ресёрч или хотя бы сначала сделать план внедрения”. А затем ты, как главный диспетчер проекта, курсируешь между репозиториями, ветками и задачами: проверяешь, мёрджишь, продолжаешь раздавать работу.
Peter Steinberger довёл это до предела. Есть известное фото: ряд мониторов, на которых запущена куча экземпляров Codex. Каждый агент может работать по 20 минут, но он держит открытыми сразу много, переключается между разными репозиториями и постоянно выдаёт им задания.
В результате у тебя появляется новая мышечная память: когда один агент “бежит”, твоя первая реакция уже не “ждать, пока он закончит”, а “почему бы не открыть ещё несколько?” Если у тебя ещё не выбит лимит по токенам, не выбита подписка, не выбита вычислительная мощность — значит, узкое место в системе ты сам.
Ведущий:
То есть раньше узким местом многих инженерных задач было “не хватает вычислений”; а теперь внезапно “я сам стал узким местом”.
Andrej Karpathy:
Да, и именно поэтому это так затягивает.
Когда я учился в аспирантуре, если GPU не были загружены на максимум, возникало тревожное чувство: мощность есть, но ты её не используешь. Сейчас это ощущение перенеслось на пропускную способность по токенам. Если у Codex выбит лимит, начинаешь думать, не переключиться ли на Claude или другой инструмент. Центральный вопрос становится таким: сколько пропускной способности по токенам я могу превратить в реально полезный результат?
Это очень новый навык, и он действительно постоянно открывает новые “потолки”.
Ведущий:
А если посмотреть вперёд на год-два: во что вырастет такое мастерство?
Andrej Karpathy:
Мне кажется, сейчас все уже по умолчанию приняли существование “одного агента”; следующий шаг естественен — “стек кооперации многих агентов”. Все нащупывают: как собрать из нескольких агентов команду? как разумно разделить обязанности? как управлять состоянием и памятью?
Другое направление, которое мне очень интересно, — более устойчивый, постоянно работающий фоновый агентный сервис. Раньше я описывал это словом claw (claw). Смысл в том, что это не разовая сессия с ним; это штука, которая постоянно крутится в своей песочнице, делает для тебя дела, обладает большей устойчивостью и более сложной памятью, а не опирается только на сжатую память, когда контекст почти заполнен.
Если такие системы заработают, они поднимут “долгоживущесть” агента на другой уровень.
Ведущий:
Что важнее: подключение инструментов или более сильная память и долгосрочность?
Andrej Karpathy:
Мне кажется, важно и то и другое, и они усиливают друг друга.
У Питера особенно хорошо получилось то, что он не оптимизировал одну вещь — он одновременно инновационировал на многих уровнях: персона (личность), память, оркестрация, подключение инструментов, рабочие процессы — всё вместе.
Например, мне всё больше кажется, что “личность” очень важна. У Claude она сделана хорошо: ощущается как реально готовый сотрудничать напарник; кодовый агент Codex более сухой и холодный, скорее в духе “я сделал, но мне не очень важно, что именно ты строишь”. А ChatGPT часто более оптимистичен и легче “идёт за тобой”.
Эта разница не декоративна — она прямо влияет на опыт совместной работы. У меня даже бывает странное чувство: если Claude меня хвалит, мне кажется, что я правда хочу “заслужить эту похвалу”. Если я даю ему сырую идею, реакция не слишком сильная; но если я сам считаю, что идея действительно хорошая, его обратная связь будто становится сильнее. Ты хочешь заслужить его одобрение — звучит немного нелепо, но это показывает, что слой личности — не “обвес”, а часть продуктового опыта.
Ведущий:
Помимо софтверной инженерии, ты реально делал с этим что-то ещё интересное?
Andrej Karpathy:
Да. В январе я сделал домашнего фонового агента, назвал его домовёнок по хозяйству Dobby. Он по сути присматривает за всем домом вместо меня.
Первое, что я сделал, — попросил его найти в локальной сети все подсистемы умного дома. Он реально пошёл сканировать IP, нашёл Sonos, затем понял, что некоторые интерфейсы почти не защищены, сам полез читать материалы, сделал реверс-инжиниринг API и вернулся спросить, хочу ли я попробовать. Я сказал: включи музыку в кабинете — и он реально её включил. Всего тремя prompt.
Потом он взял под контроль освещение, HVAC, шторы, бассейн, спа и систему безопасности. У меня ещё есть камера, смотрящая на дверь: сначала идёт детектирование изменений, затем кадр передаётся модели компьютерного зрения, и дальше он напрямую пишет мне в WhatsApp, прикладывая фото двери и сообщая: только что у входа остановилась машина FedEx, возможно, у тебя посылка.
Ощущение очень дикое и очень новое: Dobby реально как будто “смотрит за домом” вместо меня.
Раньше мне нужно было шесть полностью разных приложений, чтобы управлять всеми этими системами; сейчас я этими приложениями почти не пользуюсь. Dobby управляет всем через естественный язык. Даже если я ещё не довёл эту парадигму до предела, она уже очень полезна и очень воодушевляет.
Ведущий:
Это показывает, что люди на самом деле хотят не обязательно сегодняшние программы как таковые, а сущность, которая может “задействовать” софт за них? Потому что изучение нового UI само по себе — издержка.
Andrej Karpathy:
В некоторой степени — да.
То, как обычные люди представляют себе AI, — это не “сырой генератор токенов LLM”. Для большинства AI — это скорее сущность с идентичностью и памятью: ты можешь ей что-то сказать, она запомнит и будет продолжать разруливать проблемы — как некая сущность, спрятанная за WhatsApp.
С этой точки зрения, UX-слой многих программ сегодня вообще не обязательно должен существовать. Многие приложения в итоге, возможно, должны деградировать до набора эндпоинтов API (API endpoint), которые вызывает агент, а агент выступает умным “клеевым слоем”, склеивая всё вместе.
Например, у моей беговой дорожки, конечно, есть приложение. Но я не хочу открывать веб-страницу или приложение и нажимать кучу кнопок; я на самом деле хочу сказать: “помоги мне записать, сколько раз на этой неделе я делал кардио”.
Поэтому мне кажется, что многим индустриям в итоге придётся переконфигурироваться: клиентами будут не только люди, но и агенты, действующие от имени людей. В будущем множество инструментов будут скорее agent-first, а не UI-first.
Ведущий:
Тогда почему ты не подключил это глубже к почте, календарю — к более ядровым системам?
Andrej Karpathy:
Отчасти потому, что я сам легко отвлекаюсь, а отчасти потому, что я всё ещё довольно осторожен.
Почта, календарь, права доступа ко всей цифровой жизни — как только ты отдаёшь это целиком, вопросы безопасности и приватности становятся очень серьёзными. Сейчас эти системы хоть и сильные, но по краям всё ещё довольно грубые, поэтому я пока не хочу безоговорочно отдавать им всю цифровую жизнь.
Ведущий:
Давай поговорим про AutoResearch. Когда ты произносишь это слово, какая настоящая мотивация за ним стоит?
Andrej Karpathy:
Самая главная мотивация — убрать себя из роли узкого места.
Если ты всё ещё сидишь внутри цикла (loop), постоянно смотришь на результаты и решаешь, что дальше, — система будет “спотыкаться” об тебя. На этом этапе имя игры — leverage (рычаг): увеличить свой рычаг. Я хочу, чтобы я лишь изредка вкладывал немного токенов, а большая работа продолжала происходить от моего имени.
Поэтому AutoResearch для меня — не хайповое словечко, а тест границы: как мне заставить больше агентов работать дольше и делать больше, не требуя моего постоянного участия?
Изначально у меня не было сильного ожидания, что это сразу станет эффективным. Но я взял очень знакомую мне маленькую песочницу GPT-2 и провёл эксперимент — и он реально выкопал кое-что, чего я раньше не видел: например, какие-то связки между weight decay и гиперпараметрами. Я думал, что тот репозиторий уже “вылизан” мной до конца, а он всё равно нашёл некоторый прирост.
Это заставило меня понять: такое “рекурсивное самоулучшение” — не игрушка. И фронтирные лаборатории, конечно, тоже идут в эту сторону. Можно сначала много исследовать на маленьких моделях, а затем экстраполировать выводы на более крупные.
Ведущий:
То есть сам исследовательский процесс нужно переписать. Исследователь не должен продолжать делать так много руками.
Andrej Karpathy:
Мне кажется, да. Люди, конечно, всё ещё могут вносить идеи, но большая часть реализации, поиска, проб-ошибок и оценочных процедур вообще-то должна быть автоматизирована.
Можно даже представить исследовательскую организацию как набор файлов Markdown: там определены все роли, процессы, интерфейсы, как сотрудничать, как проводить встречи, как выбирать темы, как мёрджить результаты. Как только этот “способ организации” записан как код, его можно оптимизировать, сравнивать и эволюционировать.
Мне особенно нравится идея: пусть многие люди пишут разные версии program MD, а затем на одном и том же бюджете железа сравнить, у кого улучшения больше. Потом эти результаты снова скормить модели, чтобы она написала лучшую следующую версию.
И поэтому сейчас весь процесс как бы “поднимается слой за слоем”: сначала LLM, потом агент, потом много агентов, потом оптимизация инструкций, потом мета-оптимизация “самой организации” и “самого program MD”. И из-за того, что это так наращивается слоями, оно и кажется почти бесконечно разворачиваемым.
Ведущий:
Но, видимо, это не одинаково применимо ко всем задачам. Какие типы задач лучше всего подходят для AutoResearch?
Andrej Karpathy:
Самое важное условие — у тебя должны быть объективные метрики, которые можно чётко оценивать.
Например, если ты хочешь сделать участок CUDA kernel или часть кода в модели более эффективной — это идеально подходит. Потому что цель ясна: поведение то же, но быстрее, экономнее, лучше.
Но как только у задачи нет ясного, автоматизируемого и слабо неоднозначного критерия оценки, её трудно полностью автоматизировать. Дело часто не в том, что агент не сможет, а в том, что ты не можешь проверить, сделал ли он “лучше”.
Кроме того, сегодняшние модели хоть и очень сильные, но по краям всё ещё довольно грубые. Я часто ощущаю, что одновременно разговариваю то с очень сильным аспирантом, то с десятилетним ребёнком. Ты чувствуешь, что оно мощное, и одновременно часто чувствуешь странную неровность.
Иногда оно тратит огромные вычисления на проблему, которая тебе кажется очевидной до предела. Эта “зубчатость” (jaggedness) реально очень странная. У людей, конечно, тоже есть слабые места, но у моделей эти зубчатые провалы более экстремальные и более скачкообразные.
Ведущий:
Это означает, что между навыком в коде и более широким “интеллектом” нет такой сильной синхронной генерализации, как многим кажется?
Andrej Karpathy:
Мне кажется, действительно есть определённая развязка (decoupling).
Очень типичный пример — шутки. Сегодня спроси самую передовую модель рассказать шутку — она с большой вероятностью выдаст старые баяны, которые ходят много лет. Например: “Почему учёные не доверяют атомам? Потому что атомы составляют всё (make everything up).”
Это показывает следующее: в областях, где RL-награда покрывает задачу, где есть верифицируемость и оптимизируемость, прогресс будет очень быстрым; но в зонах, которые специально не оптимизировали и где нет чёткого сигнала награды, модель не станет автоматически синхронно сильнее.
Поэтому я не верю в “как только код станет сильнее, все остальные способности бесплатно подтянутся”. Немного генерализации может быть, но не настолько линейно и не настолько гладко.
Ведущий:
Тогда получается, в будущем это будет не один универсальный монолитный модельный “бог”, а больше “видообразования”?
Andrej Karpathy:
Думаю, вполне возможно.
Сегодня лаборатории скорее делают модель одной-единственной культуры: всё запихивают в один мозг. Но если смотреть на природу, интеллект никогда не был одной формой. Разные экологические ниши порождают совершенно разные структуры мозга.
Так что в будущем мы, вероятно, увидим: более маленькие, но более специализированные модели, заточенные под конкретные задачи, с кастомной оптимизацией по задержке, пропускной способности и распределению способностей.
Просто сегодня инженерная часть “как стабильно менять веса, делать глубокую донастройку, делать непрерывное обучение” ещё не зрелая. Самое зрелое сейчас — играться с контекстным окном; а реально лезть в веса модели — всё ещё слишком дорого и слишком грубо.
Ведущий:
Ты упоминал ещё одно направление: если вытолкнуть AutoResearch наружу, это может стать более открытой поверхностью сотрудничества в интернете. Как это выглядит?
Andrej Karpathy:
Я думаю о системе, где генерировать кандидаты на решение очень дорого, а проверять, верен ли кандидат, относительно дёшево.
Например, в AutoResearch кто-то даёт тебе candidate commit и говорит, что это улучшит обучение модели. Проверить, действительно ли стало лучше, можно сделать довольно однозначно; сложность — найти это изменение.
По “вкусу” это немного похоже на Folding@home, SETI@home и даже в какой-то степени на блокчейн. Разница только в том, что здесь не блоки, а коммиты; не майнинг, а экспериментальный поиск. По-настоящему трудно найти работающую схему, а верификация дешевле.
Теоретически можно заставить в интернете сотрудничать множество недоверенных контрибьюторов и набор доверенных узлов, отвечающих за проверку. Если песочницы, изоляция безопасности и процесс валидации спроектированы достаточно хорошо, такая система вполне может организовать разрозненную мировую вычислительную мощность.
И это очень привлекательно ещё и потому, что может сделать осмысленным “пожертвование вычислений по интересу”. Тебе важен рак — ты отдаёшь вычисления в AutoResearch-трек по онкологии; тебе важны материалы, физика или другие конкретные проблемы — можно направить вычисления туда.
Ведущий:
Ранее ты публиковал набор данных по занятости. Что ты пытался в них увидеть?
Andrej Karpathy:
Я пытался построить собственную цепочку рассуждений: как именно AI повлияет на рынок труда? Какие профессии просто сменят инструменты, какие будут реконструированы, а какие, возможно, наоборот, вырастут?
Если понимать нынешний AI как “работников в цифровом мире”, то лучше всего они умеют манипулировать цифровой информацией, а не напрямую манипулировать атомным миром. Копировать, менять и передавать биты намного быстрее, чем перестраивать реальный мир.
Поэтому моя интуиция всегда была такая: цифровое пространство первым переживёт массовую перепись, “кипение” и реконфигурацию; физический мир будет медленнее. Это не значит, что цифровые профессии обязательно исчезнут; это значит, что их способ работы будет переформатирован. Позиции, где работа в основном из дома и в основном с цифровой информацией, почувствуют влияние особенно сильно.
Ведущий:
Если человек сейчас ищет работу или думает “чему мне учиться”, что бы ты сказал?
Andrej Karpathy:
Первое: не игнорировать это и не уходить в избегание из-за страха.
Эти инструменты сейчас прежде всего — инструменты расширения возможностей. Почти любая работа — это цепочка задач; и часть этих задач уже заметно ускоряется такими системами. Поэтому на текущем этапе как можно быстрее догнать это и научиться с этим сотрудничать — почти обязательная вещь для любого работника умственного труда.
Что будет в долгосрочной перспективе, я не хочу притворяться, будто могу точно предсказать, но в краткосрочной это скорее огромный рычаг.
Если говорить о софтверной инженерии, я скорее оптимист. Спрос на софт почти бесконечен; раньше ограничением был не недостаток спроса, а то, что делать софт слишком дорого, слишком медленно и слишком сложно. Если порог резко падает, может включиться парадокс Джевонса (Jevons Paradox): вещь стала дешевле — спрос стал ещё больше.
Как банкоматы не “убили” банковских кассиров напрямую, а из-за удешевления отделений банки смогли открывать больше точек и общий спрос переумножился. AI может дать похожий эффект в софте: софт станет дешевле, мощнее, более краткоживущим, проще кастомизируемым — и общий спрос общества на софт продолжит расти.
Ведущий:
Многие спрашивают: если ты так смотришь на это, то самое стоящее место — это всё равно фронтирные лаборатории?
Andrej Karpathy:
Я не думаю, что ответ настолько простой.
Фронтирные лаборатории, конечно, очень важны, но делать вещи вне лабораторий — на уровне экосистемы — тоже может быть очень влиятельно. Проблема в том, что как только ты входишь в организацию, ты перестаёшь быть полностью свободным агентом. На тебя давят множество явных и неявных факторов — что можно говорить, что нельзя; в каких вопросах можно участвовать, а в каких — нет.
А вне лабораторий у тебя, наоборот, больше шансов влиять на экосистему: писать инструменты, формировать рабочие процессы, продвигать открытую инфраструктуру, заниматься образованием, придумывать новые режимы сотрудничества, быть по-настоящему независимым участником.
Поэтому я бы не приравнивал “самую ценную позицию” к “попасть в одну из самых передовых компаний”.
Ведущий:
А как ты видишь долгосрочный расклад между open-source и закрытыми системами?
Andrej Karpathy:
Инстинктивно я всё же за open-source.
Во-первых, чрезмерная концентрация закрытого интеллекта сама по себе несёт структурные риски. Если оглянуться на историю — и в политике, и в экономике — у чрезмерной концентрации власти обычно не лучший послужной список.
Во-вторых, если смотреть на историю софта: Windows и macOS, конечно, сильны, но именно открытые системы вроде Linux в итоге подняли на себе огромную часть реальных вычислений мира. В AI вполне может сложиться похожая картина: самые передовые способности, возможно, какое-то время будут в руках немногих закрытых систем, но я надеюсь, что со временем появятся более сильные, более открытые альтернативы, которые общество сможет шире понимать и формировать.
Я не считаю здоровым финалом сценарий “максимально концентрировать самые важные интеллектуальные системы у как можно меньшего числа людей”.
Ведущий:
Ты упоминал ещё одну интересную мысль: интерфейс между цифровым и физическим миром — вероятно, то, за чем особенно стоит следить дальше.
Andrej Karpathy:
Да. Потому что биты очень легко копировать и ими манипулировать, поэтому изменения в цифровом пространстве взорвутся первыми; но если агенты начнут разговаривать друг с другом, выполнять задачи и формировать экономику агентов (agent economy), они в итоге неизбежно упрётся в реальный мир.
Тебе всё равно придётся касаться сенсоров, устройств, запускать эксперименты, вызывать внешние системы, собирать новые данные. Этот интерфейс очень интересен, потому что он не обязательно должен начинаться с “дорогих роботов”. Многие возможности входа в физический мир уже существуют в виде камер, датчиков, готового железа и программных интерфейсов. Если агент достаточно умён, он сможет использовать это, чтобы получать данные, управлять системами и выполнять задачи.
Поэтому я думаю, что агентный веб (agentic web) вполне может появиться: интернет перестанет быть просто сайтами для просмотра людьми и станет рабочей поверхностью, где агенты потребляют, генерируют, проверяют и обменивают информацию друг с другом.
Ведущий:
Это также означает, что сбор данных и сам тренировочный процесс будут всё сильнее перестраиваться.
Andrej Karpathy:
Да. Многие процессы обучения, сбора и оценки станут более механизированными и более программируемыми. Некоторые задачи особенно хорошо подходят под “чистые метрики” и автоматический замкнутый контур — и обучение LLM само по себе типичный пример.
Так что ты увидишь всё больше систем, которые перестраиваются ради того, чтобы “кормить агента” и “кормить тренировочный процесс”. Часть работы в обществе в конечном итоге может даже начать обслуживать потребности самих машинных систем.
Ведущий:
В конце хочу поговорить об образовании. Ты делал MicroGPT. В такую эпоху во что превратится “обучение”?
Andrej Karpathy:
MicroGPT изначально был маленькой учебной песочницей, чтобы люди могли реально увидеть, что происходит в процессе обучения LLM. Если не гнаться за скоростью, а гнаться за ясностью, это просто очень читабельный небольшой кусок Python: текстовый датасет, маленькая нейросеть, прямой проход, обратный проход, минималистичный autograd и оптимизатор. Это позволяет ужать весь процесс до масштаба, который обычный человек действительно может прочитать и понять.
Но сейчас мне всё больше кажется, что само образование тоже изменится. Раньше образование — это курсы, лекции, документация; дальше оно всё больше будет похоже на “я записываю лучший путь объяснения так, чтобы агент мог исполнить это как навык и подсказки”.
То есть я не обязательно буду напрямую преподавать каждому человеку, а “закодирую” то, как нужно объяснять вещь. Тогда, если учащийся не понимает какой-то момент, агент может объяснить тремя разными способами, провести его по кодовой базе, перестроить порядок под его бэкграунд.
В итоге важнее становится другое: можешь ли ты точно “влить” в агента свои инсайты, суждения и структуру объяснения. То, чего агент не может сделать, — это твоя настоящая работа; то, что агент уже может делать хорошо, он очень скоро будет делать лучше тебя.
Ведущий:
То есть твой реальный вклад будет всё больше выглядеть как: решить, что стоит объяснять, и как именно объяснять.
Andrej Karpathy:
Да. Многое агент уже понимает — просто он ещё не обязательно может сам изобрести лучшие способы объяснения. Эта часть пока остаётся ценностью человека. Но граница постоянно движется.
Поэтому тебе нужно очень стратегически решать: на что именно ты должен тратить своё время.
Ведущий:
Большое спасибо, Andrej.
Andrej Karpathy:
Спасибо за приглашение.
Если хотите посмотреть оригинальное английское видео: