L Leam
Гайды

Подсчёт калорий по фото: насколько это точно в 2026 году

AI-счётчики калорий по фото обещают ноль усилий. Мы измерили расхождение с оценками диетолога на 200 реальных приёмах пищи — вот что показали цифры.

Опубликовано
{min} мин чтения
5 мин чтения
Автор
Leam team
Пользователь фотографирует блюдо сверху на смартфон — основной жест AI-счётчика калорий

Подсчёт калорий раньше означал три вещи: сканер штрих-кодов, огромная база продуктов и терпение печатать «куриная грудка 150 г» в телефон три раза в день. AI-распознавание по фото должно было всё это убрать. Присылаешь фото тарелки — через несколько секунд получаешь калории.

Все задают один и тот же вопрос, и в закрытой бете Leam мы слышали его регулярно: а оно реально точное? Или «AI-счётчик калорий» — это маркетинговая обёртка, которая рассыпается на первом же блюде пасты с соусом?

Мы хотели честный ответ. Поэтому прогнали бенчмарк.

Тест

Мы взяли 200 приёмов пищи, залогированных бета-пользователями Leam за шесть недель. Набор был намеренно пёстрым — то, что люди реально едят:

  • 60 домашних блюд (салаты, паста, боулы, сэндвичи)
  • 40 ресторанных (разные кухни: итальянская, грузинская, японская, американские дайнеры)
  • 30 «сложных» композитных тарелок (шведский стол, смешанные гарниры)
  • 30 упакованных продуктов прямо в обёртке
  • 20 жидких и полужидких (супы, смузи, йогурты)
  • 20 монопродуктов (яблоко, горсть орехов, варёное яйцо)

Каждый приём пищи оценивался дипломированным диетологом по тому же фото. У диетолога была та же информация, что у AI: одно фото, никакого дополнительного контекста. Мы измеряли три вещи: расхождение по калориям (|AI − диетолог| / диетолог), по макросам (белки/жиры/углеводы) и правильно ли AI определил главный продукт.

Смартфон снимает тарелку с полезным завтраком — ягоды, чай, овсянка — типичный сценарий AI-логирования
Современные AI-модели превращают жест «щёлк — отправил — готово» в полный КБЖУ за секунды.

Что показали цифры

Общая точность по калориям на всех 200 блюдах: медиана 12% ошибки, 90-й перцентиль 28%. То есть в половине случаев AI ошибается в пределах «капкейка из Старбакса», а в одном случае из десяти — на полноценный приём пищи.

Но среднее скрывает двухмодальное распределение. Разбивка по категориям:

КатегорияМедианная ошибка
Монопродукты4%
Домашние блюда9%
Упакованное6%
Ресторанные блюда14%
Супы и напитки22%
Сложные композиты31%

Паттерн устойчивый: AI отлично справляется, когда понятно, что на фото, и начинает плыть, когда порции или скрытые ингредиенты непрозрачны. Варёное яйцо — это варёное яйцо. А в бульоне рамена может плавать 150 или 450 калорий жира — по фото не определить.

Сравнение с ручным вводом

Самое интересное. Мы ещё вытянули 200 вручную залогированных приёмов у контрольной группы в MyFitnessPal и попросили того же диетолога их оценить.

Медианная ошибка ручного ввода: 21%. 90-й перцентиль: 52%.

Почему ручной ввод хуже, чем AI по фото? Потому что люди систематически занижают размер порции. Классическое исследование Lichtman et al. 1992 в NEJM показало, что «резистентные к диете» испытуемые недооценивали приём на ~47% и переоценивали активность на ~51% по сравнению с методом doubly-labelled water. Обзор Schoeller в Nutrition Reviews подтверждает паттерн: самооценка порций систематически занижает реальный приём на 20-40%. У AI нет эго, привязанного к тарелке с пастой.

Где AI ломается

Мы потратили неделю на анализ 20 худших предсказаний. Режимы отказа группируются:

  1. Скрытый жир. Куриная грудка на камеру выглядит постной, но если её жарили на 3 столовых ложках масла — AI видит только то, что видит.
  2. Объёмы соусов. Паста «с небольшим» соусом может прятать 200 калорий. AI оценивает консервативно.
  3. Плотные ингредиенты внутри чего-то. Соотношение риса и сыра в буррито — гадание.
  4. Нестандартные языки на упаковке. OCR пока английско-центричный; русские и грузинские этикетки — сложнее.
Руки с телефоном снимают свежие овощи на деревянном столе — фиксация еды для AI-анализа
Чистое хорошо освещённое фото помогает модели; сложные многокомпонентные тарелки — там, где точность падает.

Хорошая новость: все четыре категории улучшаются, если добавить одно предложение текстом. «Куриная грудка, жаренная на сливочном масле» правильно подтолкнёт оценку вверх. В Leam мы даём пользователю подтвердить или отредактировать запись перед сохранением — этот один шаг закрывает большинство выбросов >30%.

Что это значит для вас

Если выбираете трекер, честная иерархия такая:

  1. Контроль диетолога — золотой стандарт, редко кому доступно.
  2. AI по фото + одна строка подтверждения — оптимум. Быстро и почти так же точно.
  3. Ручной ввод — высокие усилия, парадоксально менее точно из-за занижения порций.
  4. На глаз — не надо.

Точность — не главное. Постоянство важнее. Трекер, которым вы реально пользуетесь каждый день с 12% ошибкой, бьёт трекер, который вы бросаете через неделю с теоретическим 0%. В этом и есть вся аргументация за AI-распознавание: оно убирает трение, которое убивает любое приложение-дневник, а компромисс по точности на проверку оказывается равен нулю.

Оговорки, которые честно признаём

Над чем работаем:

  • Оценка объёма без референса. Монетка в кадре сильно помогает. По нашим тестам, ложка в кадре улучшает точность порций примерно на 18%.
  • Соусы и бульоны. Экспериментируем с тапом «много соуса / мало соуса» как модификатором.
  • Несколько блюд в одном кадре. Две тарелки одновременно всё ещё иногда путают классификатор.

Хотите посмотреть, как это работает вживую — откройте Leam в Telegram и пришлите фото того, что едите прямо сейчас. Ответ приходит примерно за три секунды, вы увидите уровень уверенности модели и сможете поправить порцию одним тапом до сохранения.

Источники