DeepInMiniscope — это безлинзовая камера, которая использует тонкую маску с крошечными линзами для создания детальных 3D-изображений с помощью одной экспозиции.

Крошечные линзы DeepInMiniscope.
Марио Родригес/UC Davis
Ученые разработали новое компактное устройство для получения изображений, которое призвано изменить подход к изучению мозга.
Это устройство знаменует собой важный шаг в преобразовании методов изучения мозга нейробиологами. Обеспечивая высококачественную визуализацию активности мозга свободно движущихся мышей в режиме реального времени, этот миниатюрный микроскоп позволяет исследователям наблюдать взаимосвязь между нейронной активностью и поведением с беспрецедентной детализацией.
Ожидается, что этот технологический прогресс значительно углубит наше понимание функций мозга, предоставив критически важную информацию о том, как восприятие, познание и поведение неразрывно связаны с базовыми нейронными процессами.
В конечном итоге эти знания могут послужить основой для разработки новых терапевтических стратегий при заболеваниях головного мозга, потенциально способствуя улучшению методов лечения и результатов для здоровья человека.
Безлинзовая камера реконструирует 3D-объекты с помощью крошечных линз
Опираясь на свои предыдущие исследования, Вэйцзянь Ян, профессор электротехники и вычислительной техники, и его команда разработали DeepInMiniscope — безлинзовую камеру, способную получать трёхмерные изображения с одной экспозиции. Вместо одного громоздкого объектива камера использует тонкую маску, в которую встроены десятки крошечных линз, каждая из которых фиксирует уникальный ракурс одного и того же объекта.
Затем передовые вычислительные алгоритмы объединяют эти множественные перспективы для реконструкции детального трехмерного изображения, предлагая компактный и эффективный подход к визуализации с высоким разрешением, который может полностью изменить подход исследователей к изучению сложных структур.
Предыдущие системы визуализации хорошо работали с крупными объектами в условиях слабого рассеивания света, например, в системах зрения роботов для сборки деталей, но им было сложно фиксировать мелкие детали биологических или биомедицинских образцов. В живых тканях рассеяние света — обычное явление, контрастность сигнала часто низкая, а реконструкция сложных структур в большом объёме представляет собой серьёзную вычислительную задачу.
DeepInMiniscope преодолевает эти ограничения благодаря усовершенствованной маске, содержащей более 100 миниатюрных линз высокого разрешения в сочетании с новой нейронной сетью для реконструкции изображений. Такой подход позволяет системе «видеть» сквозь ткани, обеспечивая детальную биомедицинскую визуализацию без хирургического вмешательства или других инвазивных процедур.
Мгновенная регистрация активности нейронов мыши
DeepInMiniscope использует нейронную сеть, которая сочетает итеративную оптимизацию на основе моделей с традиционным глубоким обучением. Получающаяся развёрнутая сеть состоит из нескольких этапов, каждый из которых действует как мини-сеть, имитирующая одну итерацию оптимизации.
В микроскопе Янга сеть мгновенно реконструирует детали высокого разрешения в большом трёхмерном объёме, объединяя данные со всех 100 микролинз в единое целостное изображение. Используя этот подход, Ян и его команда успешно записали нейронную активность мышей в реальном времени, запечатлев сложные мозговые процессы с беспрецедентной чёткостью.
«Наш алгоритм сочетает в себе интерпретируемость, эффективность, масштабируемость и точность. Для него требуется лишь минимальный объём обучающих данных, но при этом он способен надёжно и точно обрабатывать большие наборы данных на высокой скорости», — пояснил Фэн Тянь, научный сотрудник лаборатории Яна и первый автор исследования.
Далее Ян намерен уменьшить устройство до 2 квадратных сантиметров, что примерно соответствует размеру шляпы мыши, и сделать его беспроводным, что позволит в режиме реального времени получать изображения активности мозга у свободно движущихся мышей и углубить понимание того, как мозг управляет поведением.
Sourse: interestingengineering.com




