
Кто придумал искусственный интеллект? Я прошёл 70 лет истории за 5 дней
Искусственный интеллект официально родился в 1956 году. Но его история началась раньше, в голове Алана Тьюринга и в блокнотах нейрофизиологов. Я разберу цепочку открытий, чтобы вы увидели, как философская идея стала ChatGPT. Без магии. Только факты.

Зачем я потратил неделю на старые статьи по ИИ?
История искусственного интеллекта это не про даты. Это про паттерны. Я учусь на старых ошибках, чтобы не повторять их в своих проектах на dzen.guru. Когда я вижу новый «революционный» ИИ-стартап, я проверяю, нет ли там идей 1970-х.
Проблемы, которые я встретил
Информационный шум. Каждую неделю выходит новая модель. Без контекста кажется, что это магия. На деле, эволюция.
- Циклы хайпа: За 70 лет финансирование ИИ замораживали трижды. Я видел, как в 2012 году это повторилось. Учёные ждали своего часа.
- Повтор грабель: В 2020-х стартапы обещают общий ИИ через пять лет. В 1970-х обещали то же самое. Я не веду на это клиентов.
- Юридические ловушки: Патенты на код упираются в работы 20 века. Я проверяю историю, прежде чем внедрять модель в продакшен.
История искусственного интеллекта это синусоида. 10-15 лет взлёта, потом спад. Мы в фазе взлёта с 2012 года. Готовьтесь к следующей зиме.
О чём мы говорим
Давайте договоримся о терминах. Я использую их в работе.
- Искусственный интеллект: Машина решает задачи, где нужен человеческий ум. Учится, рассуждает.
- Машинное обучение: Алгоритм учится на данных. Я не программирую каждое правило.
- Нейронная сеть: Архитектура, вдохновлённая мозгом. Слои искусственных нейронов.
- Глубокое обучение: Многослойные сети. Работают с картинками, текстом, голосом.
- Общий ИИ (AGI): Гипотетическая машина, которая учится как человек. Её нет. Не верьте шумихе.
Как я разбил 70 лет на 5 этапов
Я составил timeline. Каждый этап, новый виток. Новые люди, старые ошибки.
1. Предтечи: идеи рождались в тишине (1940-1955)
До официального рождения. Три имени, которые всё начали.
- Алан Тьюринг. В 1950 году он предложил тест: может ли машина мыслить? Он создал теоретическую основу. Без него не было бы компьютеров.
- Уоррен Маккаллок и Уолтер Питтс. В 1943 году смоделировали искусственный нейрон математически. Доказали, что сеть из таких «нейронов» может вычислять что угодно.
- Клод Шеннон. В 1950 году написал программу для шахмат. Одна из первых попыток имитировать интеллект.
Прочитайте статью Тьюринга «Вычислительные машины и разум». Она написана простым языком. Идеи актуальны до сих пор.
2. Рождение и эйфория: обещали слишком много (1956-1974)
Золотой век оптимизма. Термин «искусственный интеллект» родился здесь.
- 1956, Дартмутская конференция. Джон Маккарти, Марвин Мински и другие собрались на летний семинар. Планировали поработать 2 месяца, а заложили поле на 70 лет вперёд. Их цель: машина, которая говорит, учится и улучшает себя.
- 1958: Фрэнк Розенблатт изобрёл перцептрон. Первую обучаемую нейросеть. Поднялась первая волна хайпа.
- 1960-е: Появились экспертные системы. DENDRAL анализировал химические соединения. MYCIN ставил диагнозы. Узкие задачи, но уровень эксперта.
| Год | Событие | Ключевая фигура | Что это дало |
|---|---|---|---|
| 1956 | Дартмутская конференция | Джон Маккарти | Наука получила имя и направление |
| 1958 | Изобретение перцептрона | Фрэнк Розенблатт | Первая сеть, которую можно обучить |
| 1965 | Создание DENDRAL | Эдвард Фейгенбаум | Первая практическая польза от ИИ |
3. Первая зима и экспертные системы: деньги ушли, но технологии остались (1974-1987)
Перцептроны не оправдали ожиданий. Финансирование сократили. Но именно тогда ИИ пошёл в бизнес.
- Экспертные системы: Программы с правилами «если-то». Кодировали знания человека. Доминировали в 1980-х.
- Успех: Система XCON для DEC конфигурировала компьютеры под заказ. Экономила миллионы.
- Провал: Японский проект компьютеров пятого поколения. Бюджет сотни миллионов, цели не достигли. Я изучал этот кейс, чтобы не наступать на те же грабли.
Не стройте бизнес на хрупких экспертных системах. Они ломаются при изменении условий. Современное машинное обучение гибче. Я проверял.
4. Возрождение нейросетей: тихая революция (1987-2010)
Вторая зима. Экспертные системы не выдержали. Но в лабораториях зрела революция.
- 1986: Дэвид Румельхарт и Джеффри Хинтон популяризировали алгоритм обратного распространения ошибки. Прорыв для обучения многослойных сетей.
- 1997: Deep Blue от IBM обыграла Каспарова. Символично, но технология, перебор вариантов, а не интеллект.
- 2006: Джеффри Хинтон ввёл термин «глубокое обучение». Показал, как обучать глубокие сети. Начало современной эры.
5. Современная эра: данные и GPU победили (2012, наше время)
Всё изменилось в 2012 году. Нейросеть AlexNet выиграла конкурс по распознаванию изображений. Ошибка упала в разы. Бухгалтеры увидели прибыль.
- Драйверы: Большие данные, мощные видеокарты, открытые фреймворки вроде TensorFlow.
- Лица: Учёные Хинтон, Лекун, Бенжио получили премию Тьюринга. Инженеры OpenAI и Google сделали технологии товаром.
- Сейчас: Мы живём в мире больших языковых моделей. GPT-5, Claude, Gemini. Искусственный интеллект стал услугой, которую я подключаю через API.
Ты, эксперт по истории ИИ. Составь хронологическую таблицу из 5 ключевых событий в развитии нейронных сетей с 1943 по 2012 год. Для каждого события укажи: год, название события, ключевых исследователей, суть прорыва и его практическое значение для современного ИИ.
Инструменты, которые я использую для изучения истории
Чтобы не утонуть в архивах, нужны фильтры.
Базы знаний и архивы
- Stanford AI Index Report: Ежегодный отчёт с трендами. Я скачиваю PDF перед планированием года.
- Архивы arXiv.org: Ищу по категории «cs.AI» и годам. Все ключевые работы там.
- Книга «Искусственный интеллект: современный подход»: Библия отрасли. У меня на столе.
- Papers With Code: Смотрю, как эволюционировал код. От AlexNet до Vision Transformer.
Как я оцениваю, что понял историю
Не по датам. По практическим навыкам.
- Распознаю старые идеи в новых упаковках: Стартап 2026 года продаёт переработанный перцептрон? Я вижу это за 5 минут.
- Даю прогнозы: На основе циклов оцениваю, сколько продлится бум больших моделей. Пока сходится.
- Выбираю технологии: Для задачи классификации изображений в 2026 году не изобретаю велосипед. Беру дообученный Vision Transformer. Экономит месяцы.
Мой чек-лист: как я изучил историю ИИ за 30 дней
Я делал по пункту в день. На каждый, 2-3 часа.
- Прочитал статью Тьюринга 1950 года. Понял философские вопросы.
- Изучил материалы Дартмутской конференции. Нашёл тезисы участников.
- Разобрался с ограничениями перцептрона. Понял причину первой зимы.
- Запустил симулятор экспертной системы CLIPS. Почувствовал её хрупкость.
- Проанализировал провал японского проекта. Выписал 3 причины: завышенные цели, жёсткая архитектура, игнорирование данных.
- Повторил эксперимент 2012 года: Установил PyTorch, обучил упрощённый AlexNet на CIFAR-10.
- Построил timeline: Годы с 1950 по 2026, уровень хайпа и финансирования. Отметил зимы.
- Составил глоссарий из 20 терминов. От «кибернетика» до «трансформер».
- Сравнил архитектуры: Hopfield Network 1980-х и Transformer 2020-х по 5 параметрам.
- Сформулировал 3 прогноза на 2030 год. Только на исторических паттернах.
Ошибки, которые я совершил (и вы избежите)
90% новичков наступают на эти грабли. Я тоже наступал.
Ошибка №1: Искал одного изобретателя
Искусственный интеллект придумали не Тьюринг и не Маккарти. Его создало сообщество учёных за 70 лет. Я перестал искать гения. Начал изучать цепочки.
Ошибка №2: Игнорировал зимы
Я думал, прогресс идёт по прямой. Ошибался. История искусственного интеллекта это синусоида. Спады болезненны, но неизбежны. Теперь я слежу за признаками.
Ошибка №3: Путал философию, науку и инженерию
Ранний ИИ был философией. Современный, инженерия данных. Я ждал сознания от GPT-3. Не дождался. Это статистическая модель предсказания текста. Очень сложный автопредсказатель.
История технологий учит: революции рождаются из терпеливого нанизывания прорывов. Каждый следующий учёный стоит на плечах предыдущего, даже если они жили в эпоху «зимы». : Адаптация мысли Ньютона к контексту ИИ
Что я вынес для себя и своих проектов
Ответа «кто придумал искусственный интеллект» нет. Есть ментальная карта. Я строю её, чтобы не заблудиться в шуме.
- Действую хронологически. Не прыгаю с ChatGPT на перцептрон. Прошёл путь от 1940-х.
- Смотрю на преемственность. Transformer имеет предков: Attention mechanism 2014 года, encoder-decoder, нейросети 1980-х.
- Связываю идеи с контекстом. Нейросети ждали 70 лет, потому что не было данных и GPU. Контекст важнее гениальности.
- Работаю руками. Запускаю код из старых статей. Чувствую разницу между логистической регрессией 1950-х и трансформером.
Кто придумал искусственный интеллект? Сообщество учёных, которое 70 лет шло сквозь зимы. Моя задача, усвоить их уроки. Чтобы строить будущее, а не повторять прошлое.

Основатель dzen.guru. Эксперт по монетизации и продвижению на Дзен. Автор курса «Старт на Дзен 2026».
Читайте также

Как я прошёл 7 фаз жизненного цикла стартапа на трёх проектах
Я прошёл этот путь трижды. От идеи до масштабирования. 7 фаз, каждая со своими метриками и фокусами. На основе трёх своих проектов и сотни разобранных кейсов я покажу, как не тратить время на задачи не своей фазы.

Присцилла Чан: как жена Марка Цукерберга построила карьеру и потратила $3.5 млрд
Присцилла Чан, врач и филантроп, которая за 10 лет через Chan Zuckerberg Initiative направила 3.5 миллиарда долларов в науку. Она замужем за Марком Цукербергом, но её влияние давно вышло за рамки этого статуса. Я разобрал её карьерную стратегию. Покажу метрики, которые работают сейчас. Это прямое отношение к теме жена-Марка-Цукерберга.

Параметрическое ценообразование: как мы заставили математику работать на маржу
Я показываю, как заменить интуицию цифрами. Вы берёте параметры продукта: вес, мощность, материал. Математика выдаёт цену. Без эмоций. Я внедряю такие системы 15 лет, от тяжёлой промышленности до IT. В этой статье, только схемы, которые дают рост маржи. Проверено.