В настоящее время при обследовании пациентов методом однофотонной эмиссионной компьютерной томографии (ОФЭКТ) для реконструкции изображений используются статистические методы. Статистические алгоритмы учитывают пуассоновское распределение регистрируемых данных, а также эффекты, связанные с прохождением гамма-излучения в биологических тканях и через коллиматор и сцинтилляционный детектор гамма-камеры.
В данной работе представлен сравнительный анализ двух статистических подходов к решению обратной некорректной задачи реконструкции ОФЭКТ-изображений: стандартного алгоритма Ordered Subsets Expectation Maximization (OSEM) [1] и алгоритма, основанного на байесовском подходе Maximum a Posteriori (MAP) с заданием априорной плотности вероятности с помощью функционала энтропии (МАР-Entropy) [2]. Для изучения свойств алгоритмов было проведено компьютерное моделирование, имитирующее обследования головного мозга пациентов методом ОФЭКТ. Компьютерные симуляции выполнялись с использованием цифрового фантома головного мозга человека (фантома Хоффмана) в роли "виртуального пациента". Сырые проекционные данные генерировались с использованием статистического метода Неймана, имитируя сбор данных вращающейся вокруг пациента гамма-камеры. Реконструкция осуществлялась параллельно алгоритмами OSEM и МАР-Entropy. Условия имитационного эксперимента были приближены к клинической практике ОФЭКТ. Количественная точность алгоритмов оценивалась путем сравнения реконструированных изображений с точным изображением фантома по среднеквадратичной ошибке и по статистическому критерию хи-квадрат.
Результаты исследований показали, что алгоритм OSEM ведет себя неустойчиво в итерационном процессе, «шумовая» компонента решения и краевые артефакты возрастают с ростом числа итераций. Алгоритм MAP-Ent позволяет контролировать «шум» и краевые артефакты с помощью выбора подходящего параметра регуляризации.
Список литературы:
Тезисы доклада: | abstracts_743159_ru.pdf |
Файл тезисов: | NesterovaAV (2).zip |