Слоеное тесто своими руками! Готовим дома, пошаговый рецепт на 1923 ккал, фото, ингредиенты
Добавить рецептРецепт
Реклама
Видеорецепты по теме
Рецепт от юлии высоцкой
Ореховые маффины с ежевикой
Важно отдельно смешивать сухие и влажные ингредиенты. Тесто не стоит вымешивать долго, иначе маффины внутри будут плотными и не получатся воздушными. Ягоды можно использовать любые, свежие или
Юлия Высоцкая
Рецепт от юлии высоцкой
Пирог с малиной и инжиром
Такой пирог можно приготовить с абрикосами — они здорово сочетаются с малиной, также хорошо получается со сливами и голубикой. Для лимонного вкуса и аромата апельсиновую цедру замените цедрой лимона,
Юлия Высоцкая
Реклама
Видеорецепты по теме
Рецепт от юлии высоцкой
Ореховый пирог с вишней
Вместо вишни можно добавить в тесто замороженную клубнику, или ягодную смесь, или порезанные кубиками яблоки. Орехи тоже подойдут любые, но, на мой взгляд, вишня больше всего любит миндаль и фисташки,
Юлия Высоцкая
Рецепт от юлии высоцкой
Маффины с хлопьями и сливами
Юлия Высоцкая
Реклама
Снежинка Татьяна
Рецепт на:
1 персону
ОПИСАНИЕ
Я никогда не покупала слоеное тесто, всегда делаю его сама, если необходимо – заморозил, надо использовать – разморозил. Всегда хорошо иметь его в запасе. На самом деле, слоеное тесто делать не так сложно, как многим кажется, и процесс не столько трудоемкий, сколько длительный и нужно просто запастись временем и, наверное, терпением). Этот рецепт теста прошел уже 3 поколения, испробован мной многократно за многие годы (делаю его лет….не помню сколько, но очень давно), поэтому со всей ответственностью заявляю, что оно получится, таким как надо (думаю, на фото это видно). К тому же постараюсь рассказать о приготовлении подробно, и остановится на нюансах. Это тесто универсально, из него можно делать всё: торты, пироги, булочки, пирожные, киши, пирожки, печенье и т.д. и т.п., я делаю из него даже чебуреки, очень вкусно. При выпечке тесто получается воздушно слоистым, а это самое главное!
В кулинарную книгу
С изображениямиБез изображенийВ избранное
С изображениямиБез изображений
Ингредиенты
Тесто 1:
200 г. маргарина (лучше сливочного)
2/3 стакана муки
Тесто 2:
1 яйцо
вода холодная
2 стакана муки
¼ ч.л. уксуса (если есть лимон, я использую сок лимона)
щепотка соли
——————-
Стакан – 250 мл.
фотоотчеты к рецепту86
Добавить фотографию
Добавить фотографию
Пошаговый рецепт с фото
Для начала приготовим тесто 1. Маргарин должен быть не размягченный, а из холодильника, он и сам по себе не слишком твердый. Насыплем в миску муку и добавим маргарин, порезанный на куски. С помощью ножа изрубим маргарин с мукой в крошку. !Здесь важно получить комочки как можно меньше, тогда это тесто потом равномернее распределится в тесте 2 и не будет отдельных вкраплений!
Лепим из маргариново-мучной крошки шар. !Месить не надо, просто скрепляем массу в целое! Кладем пока отдельно.
Теперь подготовим тесто 2. В миску высыпаем муку. !Муки лучше взять сразу немного меньше, потому что тесто должно получится достаточно мягким, не крутым, а потом в процессе вымешивания добавлять! Добавляем к муке уксус (или лимонный сок), соль.
В стакан вбиваем яйцо. Доливаем в него воды, чтобы получилось 2/3 стакана жидкости. !Обычно я беру кипяченую воду комнатной температуры, она всегда стоит у меня на кухне, поэтому температура воды не принципиальна! Взбиваем слегка ложкой, чтобы яйцо смешалось с водой, и вливаем в муку.
Хорошо вымешиваем тесто, сначала ложкой, а затем руками на присыпанной мукой поверхности. По необходимости добавляем муку. !Это тесто ни в коем случае не должно быть крутым, иначе в итоге получится жесткое слоеное тесто!
Теперь тесто 2 раскатываем в небольшой прямоугольник. !Не тонко, иначе затем будет прорываться!
На него кладем первое тесто ближе к одному краю по середине, таким образом, чтобы можно было завернуть его конвертом.
Теперь заворачиваем, сначала накрываем близким краем.
Затем – заворачиваем по бокам.
И наконец – закрываем оставшимся «хвостом». Получаем первое тесто в конверте.
Таким образом тесто кладем в тарелку, присыпанную мукой и отправляем в холодильник на 30 минут. Кладем тесто «швом» вниз, чтобы лучше закрепить края. !Когда отправляем тесто в холодильник, ничем не накрываем. Иначе образуются капельки, и тесто станет мокрым, что нам совсем не нужно!
Через 30 минут достаем тесто из холодильника, кладем на раскатываемую поверхность таким же образом, как оно лежало на тарелке и раскатываем скалкой, не сильно, так, чтобы можно было вновь свернуть конвертом.
Сворачиваем и вновь отправляем в холодильник на 30 минут.
Через 30 минут достаем тесто. Раскатываем на присыпанной муке поверхности и снова заворачиваем конвертом. Отправляем в холодильник на 30 минут.
Теперь наше тесто готово. Можно готовить из него сразу же.
!Если Вы готовили тесто вечером с тем, чтобы готовить что-то на следующий день, лучше положить его в полиэтиленовый пакетик и в холодильник. Если тесто не потребуется долгое время, можно его заморозить, положив в пакет! Размораживается оно быстро, за 1,5-2 часа и сохраняет все свои свойства.
Приятного приготовления!
Из этого замечательного теста Вы можете приготовить круассаны: http://www.edimdoma.ru/recipes/32943
Побаловать себя рыбным тортиком: http://www.edimdoma.ru/recipes/35614
Или удивительно вкусным и насыщенным закусочным пирогом: http://www.edimdoma.ru/retsepty/39789
Удивить себя и гостей шедевром из слоеного теста, знаменитым тортом «Наполеон»: http://www. edimdoma.ru/recipes/35510
поделиться фото
согласны?
Показать всех
ГОЛОСА ЗА РЕЦЕПТ ДНЯ(177)
Теги рецепта
выпечкабабушкинызамораживать, охлаждатьиз тестабездрожжевоебездрожжевоес яйцомслоеное бездрожжевое
Реклама
Реклама
РЕЙТИНГ РЕЦЕПТА
РАССКАЗАТЬ ДРУЗЬЯМ
Фильтры
Сбросить все
Подборки
Рецепты дня
Рецепты месяца
Быстрые рецепты
Правильное питание (пп-рецепты)
Чай и кофе по-летнему
Сезонная выпечка и десерты
Летние супы-пюре
Морепродукты на ужин
Ингредиенты
Добавить к поиску
и или
Исключить ингредиент
Пользователи
Показать
Классический хумус рецепт – Еврейская кухня: Закуски. «Еда»
Классический хумус рецепт – Еврейская кухня: Закуски. «Еда»ЗОЛОТАЯ ТЫСЯЧА
- Рецепты
- ЖУРНАЛ «ЕДА» №93 (155)
- Школа «еды»
- Идеи
- Авторы
- База
2 часа 20 минут
2 часа 20 минут + 8 часов
Автор рецептаАвтор: דוד צייתליןПерейдите в профиль
Энергетическая ценность на порцию
Калорийность
Белки
Жиры
Углеводы
273
10
17
22
ккал
грамм
грамм
грамм
* Калорийность рассчитана для сырых продуктов
Ингредиенты
порции3
Нут
100 гЛимонный сок
10 млОливковое масло
20 млКумин (зира)
5 гКопченая паприка
5 гТахини
40 гИнструкция приготовления
2 часа 20 минут + 8 часовРаспечатать
1Замочить нут в холодной воде на ночь.
2На след день в той же воде поставить варить его на малый огонь на 2 часа, до размягчения.
3Слить жидкость, оставив 1 стакан запаса.
4Поместить нут в блендер, добавить оливковое масло (extra virgin), перемолоть до однородной массы.
Инструмент
Блендер
5Добавить тахини (тхину) и лимонный сок, постепенно молоть до более гладкой консистенции (возможно добавить жидкость до более жидкой консистенции (на любителя).6Далее добавить паприку и зиру (кумин) и еще раз слегка перемешать.
Совет к рецептуТахини (Тхина), если не выйдет у вас купить, можно приготовить самому. Берем кунжут и прожариваем до румяности (не дав ему сгореть), после перетираем его с обычным растительным маслом в блендере. Подача хумуса зачастую идет с цельным нутом и оливковым маслом (масло обязательно).
популярные запросы:Горячие закуски
Холодные закуски
Сырные закуски
Паштеты
Комментарии (56):
Andrew K.8 февраля 2022
0
В ингредиентах лимонный сок есть, а в рецепте его нет, надо исправить
Еда14 февраля 2022
0
Исправили, спасибо!
Valentine Cherniy22 февраля 2022
0
такое впечатление, что КБЖУ написано «от балды» — в одном только нуте нутриентов больше чем во всем рецепте
Valentine Cherniy22 февраля 2022
0
на 100 грамм: К-470 Б-30 Ж-52 У-67,5 … проверяйте, простая математика третьего класса
Valentine Cherniy22 февраля 2022
0
забыл разделить на 1,8))) Правильный ответ — на 100 грамм: К-470 Б-16,69 Ж-28,89 У-38. 5 … все равно значительно больше, чем указано.
Valentine Cherniy22 февраля 2022
0
Аааа, не на 100грам, на порцию… Беру свои слова обратно, извините!
Еда25 февраля 2022
0
Извинения принимаем, спасибо))
Nice More6 апреля 2023
0
А воды сколько нужно?
Еда9 апреля 2023
1
Для замачивания и варки нута 800 мл на 100 г нута будет более чем достаточно. А когда готовите хумус, уже дело ваших предпочтений.
Читайте также:Где есть шашлыки в Москве
7 проверенных ресторановАрбуз — как его выбирать и с чем есть
Чтобы гигантская ягода пошла на пользу, а не во вредспецпроекты
Похожие рецептыХумус с грибами и луком
Автор: Матильда Огурцова2 порции
1 час 30 минут
Хумус с соевым соусом
Автор: Еда6 порций
3 часа
Хумус из тыквы с вешенками и брокколи
Автор: Еда4 порции
2 часа
Хумус из брокколи
Автор: Еда4 порции
15 минут
Хумус из тыквы с гранатом
Автор: Еда6 порций
Острый хумус из консервированного нута
Автор: Daria Kay Flavors4 порции
20 минут
Зеленый салат с артишоками и печеным бататом
Автор: Екатерина Маслова3 порции
1 час 30 минут
Домашний хумус
Автор: Дмитрий Терехов1 порция
10 минут
Хумус из тыквы с паприкой и кумином
Автор: Еда4 порции
40 минут
Хумус из батата с креветкой
Автор: Еда4 порции
Хумус со спражей и печеным перцем
Автор: Еда8 порций
45 минут
Хумус с запеченным баклажаном
Автор: Еда4 порции
«Никогда не жарьте морковь, не нарезав» Создание рецептов приготовления из кулинарных видеороликов с использованием глубокого обучения с учетом предыдущего процесса технологии.
Кроме того, субтитры могут помочь в понимании содержания. Понимание содержания можно за короткое время углубить, читая подписи. Среди моделей субтитров, использующих глубокое обучение, модель кодировщик-декодер [1] дала значительные результаты и привлекла внимание, но многие существующие исследования рассматривают только согласованность смежных сцен в течение коротких периодов времени. Рассмотрение согласованности видеосегментов с точки зрения субтитров имеет большое значение. Генерация предложений рецептов приготовления пищи из кулинарных видеороликов может рассматриваться как проблема с субтитрами, если рассматривать рецепты как подписи. Кроме того, поскольку кулинарное видео представляет собой набор фрагментарных задач, модель, учитывающая согласованность всего видео, считается эффективной.При изучении субтитров к видео несколько моделей фокусируются на видео, состоящих из фрагментарных рабочих наборов, но мы фокусируемся на таких видео и согласованности фрагментированной информации. Мы предлагаем метод повышения точности генерации предложений-рецептов из кулинарных видео. Чтобы определить, является ли сгенерированное им предложение рецепта удовлетворительным, как показано на рис. 1, важно использовать модель, учитывающую согласованность рецепта.
Рисунок 1Важно учитывать согласованность предыдущих подписей.
Чтобы обеспечить согласованность сгенерированных заголовков с одним и тем же рецептом, эффективно предоставлять заголовки, уже сгенерированные для того же рецепта, в качестве входных данных для части декодера кодировщика-декодера. Когда текстовая информация вводится в модель глубокого обучения, желательна ее векторизация, но в этом исследовании мы используем Doc2Vec [2], который расширяет векторизацию Word2Vec [3] от слова к предложению. Мы также предлагаем методы обработки данных, чтобы набор данных соответствовал задаче. Один из способов — удалить сцены, которые не подходят для субтитров, например, когда на экране только люди, с помощью обнаружения объектов. Другой метод — удаление размытых сцен, поскольку такие сцены могут создавать шум при обучении модели. В этой статье мы предлагаем модель, которая учитывает согласованность в генерации предложений-рецептов из кулинарных видео с использованием методов глубокого обучения и обработки данных. Мы также сравниваем точность предложенной нами модели и простой модели кодер-декодер, обученной таким же образом. Кроме того, мы указываем на эффективность предложенных методов обработки данных. Для оценки мы используем оценки BLEU [4], METEOR [5] и CIDEr [6], которые широко используются для оценки проблем с субтитрами к изображениям.
2. СВЯЗАННЫЕ РАБОТЫ
Что касается недавнего создания визуальных субтитров с помощью машинного обучения, сообщалось о многих значительных результатах в отношении субтитров к изображениям и видеоклипам. Гуо и др. [7] и Ли и соавт. [8] повысили точность задачи с помощью модели «последовательность к последовательности», в которой используются сверточная нейронная сеть (CNN) [9] и рекуррентная нейронная сеть (RNN). CNN представляет функции изображения, а RNN представляет функции предложения. LSTM [10] широко используется в качестве RNN, и эта модель называется кодером-декодером, который представляет собой тип сквозной модели, в которой не требуется определять слова содержания, такие как предметы. Следовательно, это позволяет генерировать предложения непосредственно из видео или изображений. Например, Мао и др. [11] предложил мультимодальную RNN для прогнозирования вероятности следующих и предыдущих слов, а также заданных характеристик изображения, которые извлекаются CNN. Чен и др. [12] предложили модель двунаправленного отображения между изображениями и описаниями предложений, которая может реконструировать функцию изображения для создания подписей.
До того, как была предложена модель кодер-декодер, многие исследования были направлены на создание описания предложения изображения из визуальной информации, сосредоточив внимание на промежуточных состояниях. Модель Гуадаррамы и др. [13], например, рассматривает каждый слой нейронной сети.
В этом году было изучено множество моделей кодирования и декодирования субтитров. О и др. [14] использовали набор данных, аннотированный на японском языке, для кулинарного видео; набор данных называется «Умная кухня Киотского университета» (KUSK) [15]. Поскольку этот набор данных составлен из кулинарного видео, качество информации высокое, но объем данных невелик и представлен в виде десятков видеороликов. Считалось, что объем данных скрыт, поскольку для съемки и комментирования видео требуется время. Ушику и др. принял метод, называемый обучением по шаблону, чтобы компенсировать этот небольшой объем данных. Это оценивает субъект, сказуемое, объект и другие части речи на основе корпуса, состоящего из предложений-рецептов; однако его трудно применить к другим языкам в его нынешнем состоянии. Ушику и др. [16] предложил метод, который генерирует интерактивную видеосистему приготовления пищи с использованием семантической аннотации. Чтобы реализовать это, они использовали онтологию рецепта приготовления.
Исследование субтитров с использованием новейшего кодировщика-декодера предложило модель, которая сочетает в себе обучение с подкреплением и кодировщик-декодер [17]. С другой стороны, оценка модели субтитров также является проблемой, потому что многие текущие исследования субтитров оценивают свои методы с помощью метрик, использующих машинный перевод. Эти метрики могли бы оценить некоторое отклонение методов, но метрики все еще недостаточно коррелированы. Некоторые исследования были направлены на решение этой проблемы, и Cui et al. [18] предложили метрику, которая имеет высокую корреляцию с человеческими определениями. Метрика обучается как дискриминатор.
Было предложено множество кодировщиков-декодеров, основанных на моделях субтитров, но лишь немногие модели нацелены на семантическую согласованность конкретной области. В нашей статье предлагается модель приготовления пищи, учитывающая контекст рецепта.
3. БАЗОВАЯ МОДЕЛЬ
В этом исследовании мы предлагаем метод, основанный на базовой модели кодер-декодер; поэтому мы опишем базовую модель кодера-декодера, чтобы прояснить различия. Модель кодер-декодер была разработана для машинного перевода, но после активного изучения в последние годы она была успешно адаптирована к проблемам с субтитрами. Кодер — это CNN, которая кодирует входную информацию. Декодер представляет собой RNN, он получает входные данные от кодировщика и генерирует предложения, оценивая слова. RNN или декодер в основном использует долговременную кратковременную память (LSTM). Ниже описаны кодировщик и декодер при использовании для подписи к изображению. Модель показана на рисунке 2. Функция кодировщика при создании подписей к изображениям заключается в кодировании изображений в вектор фиксированной длины. Во многих случаях обученная CNN используется для кодирования изображений, превращая их в векторы фиксированной длины. Реснет [19], VGG [20] и др. используются в качестве обученных моделей CNN. Схематическая диаграмма показана на рисунке 3. Функция декодера состоит в том, чтобы генерировать предложения из линеаризованных векторов фиксированной длины, которые были сгенерированы кодером. Векторы становятся первым скрытым слоем RNN. Выход декодера представляет собой набор вероятностей с использованием softmax в качестве функции активации. Слова, которые предсказывает декодер, не являются естественным языком, но карта слов создается заранее, и идентификатор прикрепляется к каждой лексеме слова и кодируется. Начало предложения — это токен START, а конец предложения — это токен END. Количество вхождений во время создания карты слов включает следующие три слова и токен UNK. Карта слов создается из всех подписей, включенных в набор данных. Общий вид показан на рис. 4.
Рисунок 2Базовая модель кодер-декодер.
Рис. 3Кодировщик базовой модели.
Рисунок 4Декодер базовой модели.
4. ПРЕДЛАГАЕМЫЙ МЕТОД
Мы предлагаем два метода: модель субтитров и метод обработки данных. Общая конструкция модели показана на рисунке 5.
Рисунок 5Предлагаемая нами модель.
4.1. Предложенная модель
Чтобы обеспечить согласованность между рецептом и кулинарным видео, мы предлагаем метод повышения точности генерирования предложений-рецептов из кулинарных видео. Для согласованности было эффективно передавать информацию о других титрах в том же рецепте декодеру при создании титров. Последнее действие в приготовлении пищи также было самым важным. На основании вышеизложенного предлагается способ ввода в декодер подписей, сгенерированных для изображения предыдущего действия. Поскольку информация на основе предложений не может быть передана в LSTM декодера в состоянии естественного языка, мы выполняем векторизацию предложений. В этом случае мы конвертируем их в векторы предложений с помощью Doc2Vec. Хотя можно создать карту слов для каждого слова и закодировать слово в рабочую форму, назначив идентификатор каждому словесному токену, мы используем Doc2Vec для рассмотрения дополнительной семантической информации о предложениях. Мы создаем карту слов из всех слов из всех рецептов в наборе данных; поэтому часто встречающиеся слова в рецептах становятся токенами. Причина, по которой мы иногда исключаем слова, которых нет в наборе данных, заключается в том, что такие слова слишком уникальны и становятся помехой для моделей обучения.
4.1.1. Модель Doc2Vec
Doc2Vec — это модель, которая преобразует предложения переменной длины (абзацы) в векторы признаков фиксированной длины и обучает векторы предложений путем обучения предсказанию слов, следующих за определенным абзацем. Для векторизованного обучения и векторизации предложений мы выбираем Doc2Vec вместо Sentence2Vec, потому что Doc2Vec не обязательно требует одного предложения и может обрабатывать целевые предложения независимо от их длины. В этом исследовании мы готовим список предложений наборов данных, чтобы заложить основу для субтитров и обучить Doc2Vec этому. Можно обучить модель Doc2Vec на данных, используя другую крупномасштабную и разнообразную информацию, но, по мнению Аманды и др., лучше векторизовать текст с кулинарными предложениями при работе с сферой кухни. Поскольку в отчете утверждалось, что он растет, мы обучаем модель Doc2Vec, используя данные, которые будут обрабатываться. Когда предложения даются обученной модели, получается вектор предложения фиксированной длины.
4.1.2. Генератор входных данных
Векторы изображений и векторы предложений объединяются для создания вектора, который следует рассматривать как первый скрытый слой декодера. Общий вид показан на рисунке 6. Учитывая натуральное число n , n больше 1. Для n -го изображения n в рецепте кодировщик получает вектор фиксированной длины изображения n . Он получает вектор предложения изображения n − 1 с заголовком сгенерированного ( n − 1)-е изображение и обученная модель Doc2Vec. Вектор фиксированной длины полученного изображения n и вектор предложения изображения n — 1 объединяются. Когда n = 1, сцепляется пустая матрица.
Рисунок 6Генератор входной матрицы.
4.1.3. Кодировщик
Конструкция кодировщика в предлагаемой нами модели показана на рисунке 7. В качестве кодировщика используется CNN — Resnet-101, которая была обучена для смягчения проблемы классификации изображений ImageNet. Мы преобразуем входное изображение в вектор фиксированной длины 2048 × 14 × 14. Мы комбинируем векторы изображений и векторы предложений, чтобы создать первый скрытый слой декодера. Учитывая натуральное число n , для n -го изображения n в рецепте кодер получает вектор фиксированной длины изображения n . Мы получаем вектор предложения изображения n − 1 с заголовком сгенерированного ( n − 1)-го изображения и обученной модели Doc2Vec. Вектор фиксированной длины полученного изображения n и вектор предложения изображения n — 1 объединяются. Когда n = 1, сцепляется пустая матрица.
Рисунок 7Энкодер предлагаемой нами модели.
4.1.4. Генератор векторов предложений
Мы получаем вектор предложений из самого последнего сгенерированного рецепта в том же видео (см. рис. 8). Модель Doc2Vec была предварительно обучена со всеми рецептами в наборе данных. Сальвадор и др. [21] использовали пропуск мыслей, чтобы получить репрезентацию рецепта в исследовании. Они упомянули, что обучение пропущенному мышлению с предложениями-рецептами дает лучшие результаты, чем обучение с набором данных общего назначения. Doc2Vec извлекает одномерный вектор фиксированной длины из одного предложения.
Рисунок 8Мы использовали Doc2Vec в качестве генератора векторов предложений.
4.1.5. Декодер
На рисунке 9 показана конструкция кодера предлагаемой нами модели, а также процесс декодера. Мы вводим вектор, который объединяет векторы фиксированной длины и векторы предложений изображения декодера в качестве первого скрытого слоя декодера для оценки слов и генерации предложений. Функция потерь представляет собой кросс-энтропийную ошибку. Мы используем LSTM как часть RNN декодера нашей модели.
Рисунок 9Декодер предложенной нами модели.
4.2. Обработка данных
Предлагаемый нами метод обработки данных состоит из двух частей. Мы считаем, что выбор подходящих кадров из видео создает лучший набор данных для задачи. Первый способ заключается в выборе подходящих сцен в зависимости от результата обнаружения объекта. Другой исключает размытые кадры.
4.2.1. Выбор подходящих сцен
Кулинарные видео могут иметь несколько сцен, не показывающие процесс приготовления. Их можно рассматривать как шум при обучении, поэтому мы считаем, что такие сцены должны быть удалены из набора данных. Для этого мы используем YOLO-v3, современный метод обнаружения объектов. Мы используем модель, предварительно обученную набору данных MSCOCO, который имеет 90 классов. Когда в сцене обнаруживается только человеческий класс, мы не включаем сцену в набор данных. На рис. 10 показаны примеры результатов обнаружения объектов. На левом изображении обнаружены классы сэндвичей и людей, поэтому изображение считается подходящей сценой. Правильный исключается из набора данных, потому что определяется только класс человека.
Рисунок 10Результаты обнаружения объекта YOLO.
4.2.2. Обнаружение размытия
В полном видео размытые сцены снижают надежность набора данных. Мы вводим быстрое преобразование Фурье для обнаружения этих сцен, которые затем исключаются из набора данных. Рисунок 11 является примером изображений. Левый немного размыт, но все же приемлемо. Правый полностью размыт, поэтому он будет исключен из набора данных. Мы скорректировали порог с помощью рабочей силы.
Рисунок 11Изображение справа исключено из набора данных.
5. ЭКСПЕРИМЕНТЫ
Мы сравниваем точность базовой модели кодера-декодера с предложенной моделью. Мы также оцениваем эффективность наших методов обработки данных.
5.1. Набор данных
Мы используем YouCookII [22], который представляет собой набор данных на английском языке, аннотированный описательным текстом для каждого кулинарного движения видео, полученного с YouTube. Продолжительность анимации около 5-10 минут. Мы делим набор данных на три подмножества (обучение, проверка и тестирование) и получаем по одному изображению в каждый момент времени в движении, соответствующем каждому рецепту, аннотированному из каждого видео. На обучение отводим 1333 видео, 229видео для проверки и 228 видео для тестирования. Видео выбираются случайным образом. Количество данных указано в таблице 1.
Поезд | Валидация | Тест | |
---|---|---|---|
Количество видео | 1333 | 229 | 228 |
Количество полученных изображений | 9705 | 1646 | 1646 |
Объем данных, содержащихся и полученных от YouCook
5.2. Предварительная обработка и гиперпараметры
Мы проводим обучение модели Doc2Vec для векторизации предложений для всех предложений обучающих, проверочных и тестовых подмножеств, аннотированных в анимации YouCookFI. На данный момент мы устанавливаем номер эпохи равным 100. При обучении предлагаемого метода мы устанавливаем номер эпохи равным 100, размер пакета — 32, а функцию оптимизации — Адаму 13. Для сравнительных экспериментов базовый кодировщик — Модель декодера также обучалась с аналогичными параметрами.
5.3. Captioning Target
В этом исследовании мы генерируем предложения-рецепты из кулинарных видеороликов, но вместо того, чтобы снабжать субтитрами все видео, мы извлекаем по одному изображению на диапазон, который включает пояснительный текст, аннотированный с помощью YouCookII. Таким образом, мы рассматриваем генерацию рецептов как серию проблем с субтитрами к изображениям, а не как проблемы с субтитрами. Для теста мы также извлекаем по одному изображению на диапазон. Мы рассматриваем это как проблему с субтитрами к изображениям, а не с субтитрами к видео. Поскольку во многих кулинарных видеороликах на YouTube включена часть объяснения, в которой фигурирует только человек, и такие сцены могут быть шумом. Поэтому мы считаем, что для исследования лучше использовать субтитры к изображениям, чем субтитры к видео.
5.4. Метрики
Проведено сравнение базовой модели кодер-декодер и оценок BLEU, METEOR и CIDEr предлагаемого метода, а также сравнение сгенерированных примеров титров.
Оценка BLEU — это метод, используемый для машинного перевода. В случае подписи он сравнивает сгенерированную подпись с правильным предложением. Чем выше числовое значение, тем лучше. BLEU- n (натуральное число) выполняет сравнения, используя языковые единицы n -грамм. METEOR, который также используется для оценки машинного перевода, хорошо коррелирует с человеческим суждением. CIDEr оценивает качество описания изображения. Он также вычисляет сходство автоматически сгенерированных предложений с эталонными предложениями. Чем выше все три показателя, тем лучше. В нашем исследовании мы рассчитываем метрики для каждого изображения, а не для каждого рецепта.
5.5. Результаты
В таблице 2 показаны баллы для каждой метрики для каждой комбинации методов. В результате предлагаемые нами методы увеличивают каждый балл. Предлагаемая нами модель набрала примерно в 1,05 раза больше баллов по BLEU и METEOR и в 1,08 раза больше по CIDEr, чем базовая модель. Как упоминалось ранее, CIDEr определен для задач с субтитрами к изображениям, а предлагаемый нами метод эффективен и для других проблем с субтитрами. Что касается метода обработки данных, наша модель увеличивает баллы базовой линии и предлагаемой модели. По сравнению с теми, кто не обращался, они набрали примерно в 1,05 раза больше баллов.
СИНИЙ-1 | СИНИЙ-2 | СИНИЙ-3 | СИНИЙ-4 | МЕТЕОР | СИДЕР | |
---|---|---|---|---|---|---|
Базовая модель | 0,39 | 0,29 | 0,22 | 0,18 | 0,21 | 0,85 |
Предлагаемая модель | 0,41 | 0,30 | 0,23 | 0,19 | 0,22 | 0,92 |
Базовая модель + Предлагаемая обработка данных | 0,41 | 0,31 | 0,24 | 0,19 | 0,22 | 0,90 |
Предлагаемая модель + Предлагаемая обработка данных | 0,43 | 0,32 | 0,24 | 0,20 | 0,23 | 0,94 |
Сравнение оценок каждого метода
На рис. 12 показано сравнение сгенерированных рецептов между базовой и предложенной моделью. Базовая модель генерировала предложения, в том числе о сардинах, без контекста, а предложенный нами метод — нет. Мы считаем, что предложенный нами метод эффективен при рассмотрении соответствия рецепту.
Рисунок 12Сравнение сгенерированных рецептов.
6. ЗАКЛЮЧЕНИЕ
В этой статье мы подготовили предложения с рецептами в качестве заголовков для видеороликов о приготовлении пищи, состоящих из фрагментированных наборов процессов, используя глубокое обучение для определения согласованности всей движущейся картинки и сравнивая сгенерированные заголовки с рецептом. Мы предложили метод, который учитывает согласованность рецептов, предоставляя декодеру предыдущую векторизованную подпись с помощью Doc2Vec. Мы также предложили метод обработки данных для повышения точности. В сравнимых экспериментах разница в точности по сравнению с базовой моделью кодировщик-декодер была невелика, но некоторые из сгенерированных операторов рецептов показали заметную разницу. Дальнейшие перспективы описаны ниже. Хотя мы оценили баллы и примеры сгенерированных рецептов, нам все еще нужно ввести метод оценки, который может рассчитать согласованность каждого рецепта в предложенной нами модели.
В этом исследовании предлагалось использовать только информацию из предыдущих подписей, сгенерированных в рецепте, в качестве входных данных для декодера. Однако для обеспечения согласованности во всем рецепте можно было сравнить сгенерированный заголовок со всеми заголовками в рецепте, чтобы предложить обучение для расчета потерь. В нашем методе обработки данных мы удалили изображения, у которых в результатах обнаружения объектов был только класс человека. Нам нужно было рассмотреть, что не подходит для набора данных в этом исследовании, и определить точный способ отделения подходящих изображений от неподходящих для увеличения баллов. Принимая во внимание результаты каждой оценки, можно усилить методы обработки данных; поэтому мы собираемся добавить больше методов для повышения точности.
В этой статье, поскольку мы получили только одно изображение для каждого процесса, объем данных невелик по сравнению с другими исследованиями глубокого обучения. Чтобы повысить точность, мы собираемся поэкспериментировать, чтобы определить, какое количество изображений на процесс лучше всего. В качестве еще одного решения для повышения точности мы стремимся ввести модели субтитров к видео, а не модели субтитров к изображениям. Кроме того, мы должны найти способ объединить предложенный в этой статье метод с другими моделями видеотитров. Для индекса оценки и метода оценки мы только сравнили базовую модель кодера-декодера и предлагаемый метод, но, сравнив последнюю техника субтитров и предлагаемый метод, а также использование других индикаторов могут привести к улучшению результатов. В этой статье мы использовали аннотированный набор данных для обучения и оценки, но мы стремимся создать рецепты из неаннотированных видео для оценки в нашей будущей работе. Это означает, что должна быть реализована автоматизация отдельных видеопроцессов.
ПРИЗНАТЕЛЬНОСТЬ
Эта работа была поддержана JSPS KAKENHI Номера грантов: JP17H04705, JP18H03229, JP18H03340, 18K19835, JP19H04113, JP19K12107.
ССЫЛКИ
[1] K Cho, B van Merriënboer, C Gulcehre, D Bahdanau, F Bougares, H Schwenk и др., Изучение представлений фраз с использованием кодировщика-декодера RNN для статистического машинного перевода, Конференция по эмпирическим методам 2014 г. в области обработки естественного языка (EMNLP), Ассоциация вычислительной лингвистики (Доха, Катар, 2014 г.), стр. 1724–1734.
[2] Т. Миколов, И. Суцкевер, К. Чен, Г. С. Коррадо и Дж. Дин, Распределенные представления слов и фраз и их составность, Достижения в системах обработки нейронной информации, 2013, стр. 3111-3119.
[3] Т. Миколов, К. Чен, Г. Коррадо и Дж. Дин, Эффективная оценка представлений слов в векторном пространстве, 2013. Препринт arXiv arXiv: 1301.3781
[4] К. Папинени, С. Рукос, Т. Уорд и У.-Дж. Чжу, BLEU: метод автоматической оценки машинного перевода, на 40-м ежегодном собрании Ассоциации компьютерной лингвистики, Ассоциация компьютерной лингвистики (Страудсбург, Пенсильвания, США, 2002 г. ), стр. 311-318.
[5] С. Банерджи и А. Лави, METEOR: автоматическая метрика для оценки машинного перевода с улучшенной корреляцией с человеческими суждениями, на семинаре ACL по внутренним и внешним мерам оценки для машинного перевода и/или суммирования, Ассоциация вычислительной лингвистики (Анн-Арбор). , Мичиган, 2005), стр. 65-72.
[6] Р. Ведантам, К. Лоуренс Зитник и Д. Парих, CIDEr: оценка описания изображения на основе консенсуса, Конференция IEEE по компьютерному зрению и распознаванию образов (CVPR, 2015 г.), IEEE (Бостон, Массачусетс, США, 2015 г.), стр. 4566-4575.
[7] Z Guo, L Gao, J Song, X Xu, J Shao и HT Shen, LSTM на основе внимания с семантической согласованностью для подписей к видео, на 24-й Международной конференции ACM по мультимедиа, ACM (Амстердам, Нидерланды, 2016), стр. 357-361.
[8] G Li, S Ma и Y Han, Подпись к видео на основе обобщения с помощью глубоких нейронных сетей, на 23-й Международной конференции ACM по мультимедиа, ACM (Брисбен, Австралия, 2015 г. ), стр. 1191–1194.
[9] Y Lecun, L Bottou, Y Bengio и P Haffner, Обучение на основе градиента, применяемое к распознаванию документов, в Proceedings of the IEEE, IEEE (1998), стр. 2278-2324.
[10] С. Хохрайтер и Дж. Шмидхубер, Долговременная кратковременная память, Neural Comput., Vol. 9, 1997, стр. 1735-1780.
[11] J Mao, W Xu, Y Yang, J Wang, Z-H Huang, and A Yuille, Deep captioning with multimodal recurrentneur network (m-RNN), 2014. Препринт arXiv arXiv:1412.6632
[12]X Чен и К. Лоуренс Зитник, Mind’s Eye: повторяющееся визуальное представление для создания подписей к изображениям, Конференция IEEE по компьютерному зрению и распознаванию образов (CVPR), 2015 г., IEEE (Бостон, Массачусетс, США, 2015 г.), стр. 2422-2431.
[13] Дж. Донахью, Л. А. Хендрикс, С. Гуадаррама, М. Рорбах, С. Венугопалан, Т. Даррелл и др., Долговременные рекуррентные сверточные сети для визуального распознавания и описания, на конференции IEEE 2015 г. по компьютерному зрению и распознаванию образов ( CVPR), IEEE (Бостон, Массачусетс, США, 2015 г. ), стр. 2625-2634.
[14] KJ Oh, MD Hong, UN Yoon и GS Jo, Автоматическое создание интерактивного кулинарного видео с семантическими аннотациями, J. Univ. вычисл. наук, Vol. 22, 2016, стр. 742-759.
[15] А. Хасимото, Т. Сасада, Ю. Ямаката, С. Мори и М. Минох, Набор данных KUSK: к прямому пониманию текста рецепта и действий человека по приготовлению пищи, в 2014 г. Международная объединенная конференция ACM по всеобъемлющим и вездесущим вычислениям: дополнительная публикация , ACM (2014), стр. 583-588.
[16] А. Ушику, Х. Хасимото, А. Хашимото и С. Мори, Генерация процедурного текста из видео выполнения, на 8-й Международной объединенной конференции по обработке естественного языка, том 1: Длинные статьи, Азиатская федерация обработки естественного языка (Тайбэй). , Тайвань, 2017), стр. 326-335.
[17] X Wang, W Chen, J Wu, Y-F Wang и WY Wang, Создание субтитров к видео с помощью иерархического обучения с подкреплением, Конференция IEEE/CVF по компьютерному зрению и распознаванию образов, 2018 г. , IEEE (Солт-Лейк-Сити, Юта, США) , 2018), стр. 4213-4222.
[18]Y Cui, G Yang, A Veit, X Huang и S Belongie, Learning to Assessment Image Captioning, in the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, IEEE (Солт-Лейк-Сити, Юта, США, 2018), стр. 5804-5812.
[19] K He, X Zhang, S Ren и J Sun, Глубокое остаточное обучение для распознавания изображений, Конференция IEEE по компьютерному зрению и распознаванию образов (CVPR, 2016 г.), IEEE (Лас-Вегас, Невада, США, 2016 г.) , стр. 770-778.
[20] К. Симонян и А. Зиссерман, Очень глубокие сверточные сети для крупномасштабного распознавания изображений, 2014. Препринт arXiv arXiv: 1409.1556
[21] А. Сальвадор, Н. Хайнс, Ю. Айтар, Дж. Марин, Ф. Оффли, И. Вебер и др., Изучение кросс-модальных вложений для рецептов приготовления и изображений продуктов, на конференции IEEE 2017 г. по компьютерному зрению и шаблонам. Признание (CVPR), IEEE (Гонолулу, Гавайи, США, 2017 г.), стр. 3020-3028.
[22] Л. Чжоу, С. Сюй и Дж. Дж. Корсо, На пути к автоматическому обучению процедурам из обучающих видео в Интернете, на 32-й конференции AAAI по искусственному интеллекту (2018 г.), стр. 7590-7598.
Как приготовить рис | BBC, хорошая еда
Посмотрите наше видео о том, как приготовить рис в кастрюле на плите, чтобы он получился идеально рассыпчатым. Этот метод лучше всего подходит для длиннозернистого риса басмати, но его также можно применять для коричневого риса и короткозернистого риса с некоторыми изменениями.
Рис готовят в миллионах семей каждый день, и это один из основных продуктов питания в мире, но это блюдо, которое некоторые люди считают неспособными правильно приготовить. Приготовить рис несложно, если соблюдать несколько простых правил и выбрать правильный способ для своего сорта риса. Сделайте это, и мы гарантируем, что вы больше никогда не сделаете комковатой, липкой или липкой каши.
Есть только два правила: во-первых, измерение объема риса облегчает определение количества добавляемой воды. Во-вторых, НИКОГДА не перемешивайте рис во время приготовления, иначе он раскрошится и станет липким. В некоторых рецептах в начале часто добавляют ручку, масло или ложку масла, чтобы помочь отделить зерна перед их приготовлением.
Виды риса и способы их приготовления
Длиннозерный рис, такой как басмати, необходимо промыть перед приготовлением, чтобы избавиться от лишнего крахмала, а затем отварить или приготовить методом абсорбции. Коричневому рису требуется больше воды, чем белому рису, и он готовится дольше. Замачивание в холодной воде от 30 минут до нескольких часов поможет сократить время приготовления. Чтобы использовать описанный ниже метод, добавьте в 1¼ раза больше воды. Смотрите наше руководство для получения более подробной информации о том, как приготовить коричневый рис.
Рис с короткими зернами для ризотто, паэльи и рисового пудинга нуждается в избытке крахмала, чтобы готовое блюдо стало кремовым, поэтому не промывайте его. Для этих блюд рис готовят вместе с другими ингредиентами.
Каково соотношение воды и риса?
Для риса басмати и всех видов белого риса мы рекомендуем соотношение 1:2 при приготовлении на плите. Таким образом, это будет означать, что на каждую 1 чашку риса вы добавляете 2 чашки воды. Это количество можно легко удвоить или утроить для больших порций — просто убедитесь, что вы используете достаточно большую кастрюлю, так как рис увеличивается в объеме.
Еще
Как приготовить рис на плите
- 1 чашка риса басмати на порцию (или вес 75 г на человека)
- 2 чашки (или 150 мл) воды
Мы предпочитаем готовить рис на плите, однако, если это недоступно или вы предпочитаете использовать духовку или микроволновую печь, это также возможно. Приготовление в духовке идеально, если у вас большое количество риса, в то время как приготовление в микроволновой печи является самым быстрым.
Как приготовить рис в духовке
- 1 чашка риса басмати на порцию
- 2 чашки кипятка
- Предварительно разогрейте духовку до 160°C/обычная 180°C/газ 4. 90 425 Хорошо промойте рис в большой миску с водой, затем слить.
- Выложите рис в кастрюлю среднего размера и залейте кипятком.
- Накройте крышкой и запекайте 35 минут.
- Оставьте на 5 минут, затем снимите крышку, взбейте рис вилкой, чтобы убедиться, что он отделился, и подавайте.
Как приготовить рис в микроволновой печи
- 1 стакан риса басмати на порцию (75 г)
- 2,5 стакана кипятка (или 180 мл) кипение вода.
- Накройте миску пленкой, пригодной для использования в микроволновой печи, и несколько раз проткните ее. Готовьте на высокой мощности (900 Вт) в течение 6 минут, затем на средней (500 Вт) в течение 8 минут.
- Оставьте на несколько минут, затем снимите пленку и подавайте.
Лучшие рецепты риса
Пряная цветная капуста и рис халлуми
Приготовьте эту острую цветную капусту, шпинат и рис халлуми для быстрого и простого ужина. Питательный и сбалансированный, он идеально подходит для насыщенных вечеров в будние дни.
Жареный рис с креветками
Приготовьте это легкое азиатское блюдо всего за 30 минут. Он полезный и низкокалорийный, но имеет приятный вкус, что делает его идеальным для быстрого семейного ужина.
Чоле с рисом с тмином и райтой
Приготовьте карри из нута с райтой для великолепного семейного ужина с минимальными затратами.