Игорь Градов
Игорь Градов
6 мин
кто придумал искусственный интеллекткогда появился искусственный интеллектистория развития искусственного интеллекта

Кто придумал искусственный интеллект? Я прошёл 70 лет истории за 5 дней

Искусственный интеллект официально родился в 1956 году. Но его история началась раньше, в голове Алана Тьюринга и в блокнотах нейрофизиологов. Я разберу цепочку открытий, чтобы вы увидели, как философская идея стала ChatGPT. Без магии. Только факты.

Кто придумал искусственный интеллект? Я прошёл 70 лет истории за 5 дней

Зачем я потратил неделю на старые статьи по ИИ?

История искусственного интеллекта это не про даты. Это про паттерны. Я учусь на старых ошибках, чтобы не повторять их в своих проектах на dzen.guru. Когда я вижу новый «революционный» ИИ-стартап, я проверяю, нет ли там идей 1970-х.

Проблемы, которые я встретил

Информационный шум. Каждую неделю выходит новая модель. Без контекста кажется, что это магия. На деле, эволюция.

  • Циклы хайпа: За 70 лет финансирование ИИ замораживали трижды. Я видел, как в 2012 году это повторилось. Учёные ждали своего часа.
  • Повтор грабель: В 2020-х стартапы обещают общий ИИ через пять лет. В 1970-х обещали то же самое. Я не веду на это клиентов.
  • Юридические ловушки: Патенты на код упираются в работы 20 века. Я проверяю историю, прежде чем внедрять модель в продакшен.
Ключевое правило

История искусственного интеллекта это синусоида. 10-15 лет взлёта, потом спад. Мы в фазе взлёта с 2012 года. Готовьтесь к следующей зиме.

О чём мы говорим

Давайте договоримся о терминах. Я использую их в работе.

  • Искусственный интеллект: Машина решает задачи, где нужен человеческий ум. Учится, рассуждает.
  • Машинное обучение: Алгоритм учится на данных. Я не программирую каждое правило.
  • Нейронная сеть: Архитектура, вдохновлённая мозгом. Слои искусственных нейронов.
  • Глубокое обучение: Многослойные сети. Работают с картинками, текстом, голосом.
  • Общий ИИ (AGI): Гипотетическая машина, которая учится как человек. Её нет. Не верьте шумихе.

Как я разбил 70 лет на 5 этапов

Я составил timeline. Каждый этап, новый виток. Новые люди, старые ошибки.

1. Предтечи: идеи рождались в тишине (1940-1955)

До официального рождения. Три имени, которые всё начали.

  1. Алан Тьюринг. В 1950 году он предложил тест: может ли машина мыслить? Он создал теоретическую основу. Без него не было бы компьютеров.
  2. Уоррен Маккаллок и Уолтер Питтс. В 1943 году смоделировали искусственный нейрон математически. Доказали, что сеть из таких «нейронов» может вычислять что угодно.
  3. Клод Шеннон. В 1950 году написал программу для шахмат. Одна из первых попыток имитировать интеллект.
Рекомендация

Прочитайте статью Тьюринга «Вычислительные машины и разум». Она написана простым языком. Идеи актуальны до сих пор.

2. Рождение и эйфория: обещали слишком много (1956-1974)

Золотой век оптимизма. Термин «искусственный интеллект» родился здесь.

  • 1956, Дартмутская конференция. Джон Маккарти, Марвин Мински и другие собрались на летний семинар. Планировали поработать 2 месяца, а заложили поле на 70 лет вперёд. Их цель: машина, которая говорит, учится и улучшает себя.
  • 1958: Фрэнк Розенблатт изобрёл перцептрон. Первую обучаемую нейросеть. Поднялась первая волна хайпа.
  • 1960-е: Появились экспертные системы. DENDRAL анализировал химические соединения. MYCIN ставил диагнозы. Узкие задачи, но уровень эксперта.
Год Событие Ключевая фигура Что это дало
1956 Дартмутская конференция Джон Маккарти Наука получила имя и направление
1958 Изобретение перцептрона Фрэнк Розенблатт Первая сеть, которую можно обучить
1965 Создание DENDRAL Эдвард Фейгенбаум Первая практическая польза от ИИ

3. Первая зима и экспертные системы: деньги ушли, но технологии остались (1974-1987)

Перцептроны не оправдали ожиданий. Финансирование сократили. Но именно тогда ИИ пошёл в бизнес.

  • Экспертные системы: Программы с правилами «если-то». Кодировали знания человека. Доминировали в 1980-х.
  • Успех: Система XCON для DEC конфигурировала компьютеры под заказ. Экономила миллионы.
  • Провал: Японский проект компьютеров пятого поколения. Бюджет сотни миллионов, цели не достигли. Я изучал этот кейс, чтобы не наступать на те же грабли.
Внимание

Не стройте бизнес на хрупких экспертных системах. Они ломаются при изменении условий. Современное машинное обучение гибче. Я проверял.

4. Возрождение нейросетей: тихая революция (1987-2010)

Вторая зима. Экспертные системы не выдержали. Но в лабораториях зрела революция.

  1. 1986: Дэвид Румельхарт и Джеффри Хинтон популяризировали алгоритм обратного распространения ошибки. Прорыв для обучения многослойных сетей.
  2. 1997: Deep Blue от IBM обыграла Каспарова. Символично, но технология, перебор вариантов, а не интеллект.
  3. 2006: Джеффри Хинтон ввёл термин «глубокое обучение». Показал, как обучать глубокие сети. Начало современной эры.

5. Современная эра: данные и GPU победили (2012, наше время)

Всё изменилось в 2012 году. Нейросеть AlexNet выиграла конкурс по распознаванию изображений. Ошибка упала в разы. Бухгалтеры увидели прибыль.

  • Драйверы: Большие данные, мощные видеокарты, открытые фреймворки вроде TensorFlow.
  • Лица: Учёные Хинтон, Лекун, Бенжио получили премию Тьюринга. Инженеры OpenAI и Google сделали технологии товаром.
  • Сейчас: Мы живём в мире больших языковых моделей. GPT-5, Claude, Gemini. Искусственный интеллект стал услугой, которую я подключаю через API.
Пример промпта для исторического анализа

Ты, эксперт по истории ИИ. Составь хронологическую таблицу из 5 ключевых событий в развитии нейронных сетей с 1943 по 2012 год. Для каждого события укажи: год, название события, ключевых исследователей, суть прорыва и его практическое значение для современного ИИ.

Инструменты, которые я использую для изучения истории

Чтобы не утонуть в архивах, нужны фильтры.

Базы знаний и архивы

  • Stanford AI Index Report: Ежегодный отчёт с трендами. Я скачиваю PDF перед планированием года.
  • Архивы arXiv.org: Ищу по категории «cs.AI» и годам. Все ключевые работы там.
  • Книга «Искусственный интеллект: современный подход»: Библия отрасли. У меня на столе.
  • Papers With Code: Смотрю, как эволюционировал код. От AlexNet до Vision Transformer.

Как я оцениваю, что понял историю

Не по датам. По практическим навыкам.

  • Распознаю старые идеи в новых упаковках: Стартап 2026 года продаёт переработанный перцептрон? Я вижу это за 5 минут.
  • Даю прогнозы: На основе циклов оцениваю, сколько продлится бум больших моделей. Пока сходится.
  • Выбираю технологии: Для задачи классификации изображений в 2026 году не изобретаю велосипед. Беру дообученный Vision Transformer. Экономит месяцы.

Мой чек-лист: как я изучил историю ИИ за 30 дней

Я делал по пункту в день. На каждый, 2-3 часа.

  1. Прочитал статью Тьюринга 1950 года. Понял философские вопросы.
  2. Изучил материалы Дартмутской конференции. Нашёл тезисы участников.
  3. Разобрался с ограничениями перцептрона. Понял причину первой зимы.
  4. Запустил симулятор экспертной системы CLIPS. Почувствовал её хрупкость.
  5. Проанализировал провал японского проекта. Выписал 3 причины: завышенные цели, жёсткая архитектура, игнорирование данных.
  6. Повторил эксперимент 2012 года: Установил PyTorch, обучил упрощённый AlexNet на CIFAR-10.
  7. Построил timeline: Годы с 1950 по 2026, уровень хайпа и финансирования. Отметил зимы.
  8. Составил глоссарий из 20 терминов. От «кибернетика» до «трансформер».
  9. Сравнил архитектуры: Hopfield Network 1980-х и Transformer 2020-х по 5 параметрам.
  10. Сформулировал 3 прогноза на 2030 год. Только на исторических паттернах.

Ошибки, которые я совершил (и вы избежите)

90% новичков наступают на эти грабли. Я тоже наступал.

Ошибка №1: Искал одного изобретателя

Искусственный интеллект придумали не Тьюринг и не Маккарти. Его создало сообщество учёных за 70 лет. Я перестал искать гения. Начал изучать цепочки.

Ошибка №2: Игнорировал зимы

Я думал, прогресс идёт по прямой. Ошибался. История искусственного интеллекта это синусоида. Спады болезненны, но неизбежны. Теперь я слежу за признаками.

Ошибка №3: Путал философию, науку и инженерию

Ранний ИИ был философией. Современный, инженерия данных. Я ждал сознания от GPT-3. Не дождался. Это статистическая модель предсказания текста. Очень сложный автопредсказатель.

История технологий учит: революции рождаются из терпеливого нанизывания прорывов. Каждый следующий учёный стоит на плечах предыдущего, даже если они жили в эпоху «зимы». : Адаптация мысли Ньютона к контексту ИИ

Что я вынес для себя и своих проектов

Ответа «кто придумал искусственный интеллект» нет. Есть ментальная карта. Я строю её, чтобы не заблудиться в шуме.

  1. Действую хронологически. Не прыгаю с ChatGPT на перцептрон. Прошёл путь от 1940-х.
  2. Смотрю на преемственность. Transformer имеет предков: Attention mechanism 2014 года, encoder-decoder, нейросети 1980-х.
  3. Связываю идеи с контекстом. Нейросети ждали 70 лет, потому что не было данных и GPU. Контекст важнее гениальности.
  4. Работаю руками. Запускаю код из старых статей. Чувствую разницу между логистической регрессией 1950-х и трансформером.

Кто придумал искусственный интеллект? Сообщество учёных, которое 70 лет шло сквозь зимы. Моя задача, усвоить их уроки. Чтобы строить будущее, а не повторять прошлое.

Поделиться:TelegramVK
Игорь Градов
Игорь Градов

Основатель dzen.guru. Эксперт по монетизации и продвижению на Дзен. Автор курса «Старт на Дзен 2026».

Читайте также

Как я прошёл 7 фаз жизненного цикла стартапа на трёх проектах
жизненный цикл стартапа

Как я прошёл 7 фаз жизненного цикла стартапа на трёх проектах

Я прошёл этот путь трижды. От идеи до масштабирования. 7 фаз, каждая со своими метриками и фокусами. На основе трёх своих проектов и сотни разобранных кейсов я покажу, как не тратить время на задачи не своей фазы.

5 мин
Присцилла Чан: как жена Марка Цукерберга построила карьеру и потратила $3.5 млрд
жена марка цукербергамарк цукерберг и присцилла чан

Присцилла Чан: как жена Марка Цукерберга построила карьеру и потратила $3.5 млрд

Присцилла Чан, врач и филантроп, которая за 10 лет через Chan Zuckerberg Initiative направила 3.5 миллиарда долларов в науку. Она замужем за Марком Цукербергом, но её влияние давно вышло за рамки этого статуса. Я разобрал её карьерную стратегию. Покажу метрики, которые работают сейчас. Это прямое отношение к теме жена-Марка-Цукерберга.

4 мин
Параметрическое ценообразование: как мы заставили математику работать на маржу
параметрические методы ценообразованиязатратный метод ценообразования этозатратное ценообразование

Параметрическое ценообразование: как мы заставили математику работать на маржу

Я показываю, как заменить интуицию цифрами. Вы берёте параметры продукта: вес, мощность, материал. Математика выдаёт цену. Без эмоций. Я внедряю такие системы 15 лет, от тяжёлой промышленности до IT. В этой статье, только схемы, которые дают рост маржи. Проверено.

6 мин