Разработка алгоритмов сегментации и распознавания объектов на медицинских изображениях.Дипломная работа

Заказать уникальную дипломную работу
Тип работы: Дипломная работа
Предмет: Информационные технологии
  • 72 72 страницы
  • 47 + 47 источников
  • Добавлена 18.07.2021
2 500 руб.
  • Содержание
  • Часть работы
  • Список литературы
  • Вопросы/Ответы
СОДЕРЖАНИЕ

ВВЕДЕНИЕ 3
ГЛАВА 1 ОБЗОР ТЕКУЩЕЙ СИТУАЦИИ В ОБЛАСТИ РАЗРАБОТКИ АЛГОРИТМОВ СЕГМЕНТАЦИИ И РАСПОЗНАВАНИЯ ОБЪЕКТОВ НА МЕДИЦИНСКИХ ИЗОБРАЖЕНИЯХ 5
1.1 Анализ предметной области «Медицинские изображения» 5
1.1.1 Общая информация об использовании медицинских изображений 5
1.1.2 Технология проведения компьютерной томографии 7
1.1.3 Особенности медицинских изображений, полученных с помощью компьютерной томографии. 10
1.2 Постановка задачи 12
1.3 Выводы по Главе 1 17
ГЛАВА 2 ОБЗОР СУЩЕСТВУЮЩИХ МЕТОДОВ СЕГМЕНТАЦИИ И РАСПОЗНАВАНИЯ МЕДИЦИНСКИХ ИЗОБРАЖЕНИЙ 18
2.1 Основы распознавания объектов на изображении 18
2.2 Предварительная обработка изображения 19
2.3 Сегментация 21
2.3.1 Основные понятия 21
2.3.2 Пороговый метод 21
2.3.3 Методы наращивания областей 24
2.3.4 Пространственные методы 25
2.3.5 Спектральные методы 25
2.3.6 Теоретико–графовая кластеризация 26
2.4 Распознавание объектов 28
2.4.1 Основы распознавания объектов 28
2.4.2 Методы, основанные на сравнении распознаваемого объекта с образцом 29
2.4.3 Статистические методы распознавания 31
2.4.4 Нейронные сети 32
2.5 Выводы по Главе 2 38
ГЛАВА 3 РАЗРАБОТКА АЛГОРИТМОВ СЕГМЕНТАЦИИ И РАСПОЗНАВАНИЯ ОБЪЕКТОВ НА МЕДИЦИНСКИХ ИЗОБРАЖЕНИЯХ 39
3.1 Разработка алгоритма программного средства 39
3.2 Выводы по Главе 3 60
ГЛАВА 4 РЕАЛИЗАЦИЯ АЛГОРИТМОВ СЕГМЕНТАЦИИ И РАСПОЗНАВАНИЯ ОБЪЕКТОВ НА МЕДИЦИНСКИХ ИЗОБРАЖЕНИЯХ 61
4.1 Реализация разработанного алгоритма 61
4.2 Выводы по Главе 4 64
ЗАКЛЮЧЕНИЕ 65
СПИСОК ЛИТЕРАТУРЫ 67
ПРИЛОЖЕНИЕ 72

Фрагмент для ознакомления

Количество нейронов данного слоя соответствует количеству классов, которые представлены в обучающей выборке. При наличии в обучающей выборке всего двух классов могут использоваться как два нейрона, так и один, состояние которого будет соответствовать логическому “true” или “false”, В случае “true” исследуемый объект принадлежит к одному классу, в случае “false” – к другому [25].Примером простейшей нейронной сети может являться один нейрон, который принимает на вход информацию из внешней среды (например, баллы выпускника высшего учебного заведения по разным предметам) и в качестве выходной информации выдает “true” или “false”, как ответ на вопрос: «Трудоустроится ли данный студент в течение года после окончания обучения в высшем учебном заведении?».Примером многослойной нейронной сети может служить нейронная сеть, распознающая изображения, на вход которой подается изображение (то есть матрица яркости отдельных пикселей), а на выходе данному изображению ставится в соответствие один из использованных в обучающей выборке классов (например, животное, птица или человек).Каждый из слоев данной нейронной сети отвечает за свою часть работы:первый слой распознает простейшие элементы: линии, изгибы и т.д. и подает на вход следующему слою уже готовый набор простейших элементов;следующий слой, получив на вход набор простейших элементов, перерабатывает их отдельные мелкие структуры, которые подаются на вход следующему слою, который в свою очередь перерабатывает их уже в более крупные структуры. Таким образом, за определенное количество шагов из простейших элементов строится вектор входных данных для выходного слоя;выходной слой на основе поданного ему вектора входных данных принимает решение о принадлежности изображения к тому или другому классу [26].В применении к рассматриваемым в данной работе задачам результатом работы нейронной сети должна стать категоризация объекта (например, причисление человека на фотографии к одной из фигуристок из тройки лидеров мирового рейтинга).Для обеспечения правильной работы нейронной сети она должна быть обучена на большой выборке обучающих данных. Чем больше выборка, тем более достоверные результаты анализа.Алгоритм принятия решений базируется на обработке вектора входных данных нейронной сетью.Нейронная сеть может состоять из различного количества слоев, каждый из которых может содержать разное количество нейронов [27-29].Так как в рассматриваемой задаче в качестве выходной характеристики необходимо получить одно из трех значений, которое будет находиться в пределах от 0 до 1, то выходной слой нейронной сети должен состоять из трех нейрона, на выходе каждого из которых будет получаться выходная характеристика, показывающая степень вероятности принадлежности идентифицируемого объекта к данному классу.Количество нейронов входного слоя зависит от количества и качества входных параметров, то есть от количества главных компонент k.Если все входные параметры простые (например, действительное значение), и результат может быть получен простым суммирование произведений данных параметров на соответствующие векторы весов, то входной слой может состоять из одного нейрона, на который подается вектор входных данных, содержащий в качестве элементов все входные параметры, а сам входной слой может совпадать с выходным.Если же входные параметры требуют дополнительной обработки (например, один из параметров необходимо не только умножить на вектор веса, но и рассчитать экспоненту от данного значения), то для каждого входного параметра лучше использовать отдельный нейрон входного слоя [30-31].В рассматриваемой задаче все входные параметры могут принимать только действительные значения.Следовательно, для рассматриваемой задачи можно использовать входной слой нейронов из одного нейрона.Данный слой не будет совпадать с выходным слоем.Таким образом, разрабатываемая нейронная сеть будет состоять из двух слоев:входного, в котором расположен один нейрон;выходного, в котором расположены три нейрона.Для удобства дальнейшей обработки предпочтительно, чтобы на выходе входного слоя нейронов все значения находились в заранее известных пределах, что упрощает подбор функции активации нейрона выходного слоя, так как в этом случае известны минимальное и максимальное возможные значения, которые получаются после суммирования входных параметров [32].Достигнуть такого результата можно с помощью функции активации.Функция активации является функцией от суммы произведений элементов входного вектора на соответствующие элементы вектора весов:(3.2)Данная функция отвечает за преобразование результата, получаемого от сумматора в виде, который удобен для дальнейшей обработки (например, если в результате суммирования может получиться любое действительное число, то для дальнейшей обработки удобнее выходное значение, находящееся в диапазоне между 0 и 1). Примером такой функции может служить сигмоида:,(3.3)где .Данная функция от любого действительного значения находится в пределах от 0 до 1.На рисунке 3.9 представлен вид данной функции.Рисунок 3.9 – Функция активации для случая, когда надо преобразовать сигнал от сумматора, который может принимать любые вещественные значения, в выходную информацию в виде вероятностной характеристики [33].При существовании ограничений на входной набор данных значения на выходе сумматора могут также принимать ограниченный диапазон значений. В этом случае функция активации также будет выглядеть по-другому.Информация с выхода нейрона входного слоя попадает на вход нейронов выходного слоя.Для того, чтобы получить на выходе нейронов выходного слоя значение от 0 до 1 необходимо также применить функцию активации.Для нейрона выходного слоя функцию активации необходимо выбирать таким образом, чтобы максимум её достигался в центре отрезка, соответствующего данному классу на диапазоне значений выходного значения нейрона входного слоя.Для получения значений векторов весов входного слоя нейронную сеть необходимо обучить.При создании и обучении нейронных сетей особое внимание уделяется оценке качества нейронной сети, так как данное понятие лежит в основе процесса обучения.В процессе обучения, на каждой следующей итерации, величина, по которой производится оценка качества нейронной сети, должна находиться ближе к целевому значению, чем на предыдущей итерации.Если этого не происходит, то это означает остановку обучения нейронной сети.Существуют различные способы обучения нейронных сетей.Среди них можно выделить два основных вида:обучение с учителем:При данном виде обучения обучающий набор состоит из пар векторов: первый вектор, содержит информацию, которая подается на вход нейронной сети, а второй – содержит решение, которое должна принять в идеальном случае сеть, на основе соответствующих входных данных. Оценка качества работы сети на выходе проводится путем сравнения идеального решения на выходе с реальным решением, которое получено на выходе нейронной сети. На основе оценки качества работы принимается решение об изменении вектора весов [34];обучение без учителя (самоорганизация):При данном виде обучения обучающий набор состоит из векторов, каждый из которых содержит информацию, которая подается на вход нейронной сети. Оценка качества работы сети на выходе проводится путем оценки определенного параметра, вычисление которого не требует априорного знания об идеальном решении, которое должно быть принято нейронной сетью. На основе оценки качества работы также принимается решение об изменении вектора весов [35].В данной работе будет применено обучение с учителем.При данном варианте обучения могут быть применены различные методики изменения вектора весов.Одним из простейших является метод, который состоит из следующих этапов:создается предварительный набор векторов весов;для каждого из них оценивается качество работы нейронной сети;выбираются наилучшие векторы;путем небольших изменений из родительского набора создается новый предварительный набор;происходит возвращение на 2 шаг.Таким образом, на каждом шаге происходит улучшение качества работы нейронной сети [36].3.2 Выводы по Главе 3В третьей главе разработан алгоритм диагностики по медицинским изображениям на основе метода главных компонент, который состоит из трех частей:предварительная обработка изображения;преобразование с помощью метода главных компонент;диагностика с помощью нейронной сети.Подробно рассмотрены действия, которые необходимо выполнить в процессе работы каждой из частей алгоритма.ГЛАВА 4 РЕАЛИЗАЦИЯ АЛГОРИТМОВ СЕГМЕНТАЦИИ И РАСПОЗНАВАНИЯ ОБЪЕКТОВ НА МЕДИЦИНСКИХ ИЗОБРАЖЕНИЯХ4.1 Реализация разработанного алгоритмаДля проведения компьютерного моделирования и экспериментальных исследований алгоритма было создано программное обеспечение, работающее в среде инженерного проектирования и моделирования MATLAB. Для корректной работы программных средств требуется версия среды MATLAB R2017b или выше.Выбор среды и языка программирования был обусловлен необходимостью сокращения времени, затрачиваемого на выполнение отладки и верификации программного кода. Среда предоставляет удобные средства для работы с массивами данных и готовый инструментарий для анализа результатов. Имеется возможность подключения стороннего программного обеспечения и дополнительных пакетов прикладных программ, значительно расширяющих возможности MATLAB, в том числе написанных на высокоуровневых языках программирования [37].Реализация разработанного алгоритма состоит из одного скрипта detectionFinal.m.Реализованное программное средство считывает два файла обучающей выборки (по одному изображению на каждую фигуристку), а также одно изображение, объект на котором необходимо распознать.Считанные данные приводятся к стандартному виду:каждая компонента каждого изображения разбивается на одинаковое количество прямоугольников, в каждом из которых находится среднее значение яркости;создается массив исходных данных и распознаваемого изображения, размер которого по вертикали равен 3 (строки), а размер по горизонтали количеству прямоугольников в одной компоненте умноженному на три.На следующем этапе обработки находится матрица ковариации для данного массива.Используя данную матрицу, можно найти корреляционную матрица данного массива.С помощью встроенной функции svd среды моделирования и найденной корреляционной матрицы можно найти следующие величины:вес каждой из компонент – данный параметр позволяет определить, какие из главных компонент целесообразно использовать для дальнейшей обработки, а какими можно пренебречь;матрица нагрузки, по которой можно определить влияние каждого исходного параметра на каждую из главных компонент.Основываясь на полученных на предыдущем шаге данных, выбирается количество главных компонент, которые будут использованы,Матрица нагрузки сокращается до количества столбцов, соответствующего количеству выбранных главных компонент,Исходный массив умножается на сокращенную матрицу нагрузки, в результате чего получается матрица, каждая из строк которой соответствует одному из изображений.Элементы строки полученной матрицы являются значениями выбранных главных компонент для изображения, соответствующего данной строкеРаспознаваемый объект соответствует тому объекту, значения главных компонент которого наиболее близки к значениям главных компонент его изображения.Так как в разработанной программе небольшое количество классов, а также небольшое количество изображений в обучающей выборке, то вместо нейронной сети целесообразно использовать более простые методы сравнения, например, по среднему отклонению. Именно данный вариант и был реализован в среде моделирования MATLAB.КодскриптаdetectionFinal.mприведен в приложении [38-39].4.2 Выводы по Главе 4В четвертой главе реализован алгоритм сегментации и распознавания медицинских изображений в математическом пакете Matlab.ЗАКЛЮЧЕНИЕВ первой главе был проведен анализ предметной области «Медицинские изображения»:проведен анализ общей информации об использовании медицинских изображений в диагностике заболеваний,рассмотрена процедура проведения компьютерной томографии,рассмотрены особенности медицинских изображений, полученных в результате компьютерной томографии.На основе проведенного анализа сформулирована задача исследования и разработки.Во второй главе проведен анализ методов распознавания объектов, которые могут быть применены в медицинской диагностике.Так как процесс распознавания объектов состоит из трех этапов:предварительной обработки изображения,сегментации,распознавания объектов,то каждый этап рассмотрен отдельно.По результатам проведенного анализа сделан вывод о том, что на сегодняшнийдень не существует универсального метода сегментации, который мог бы на любом изображении выделить все интересующие объекты. Выбор того или иного метода сегментации зависит от специфики выполняемой задачи, потому что у каждого из рассмотренных методов есть свои достоинства и недостатки, а также разные методы работают с различными признаками изображений. Аналогичный вывод можно сделать и для методов распознавания объектов.Следовательно, выбор метода сегментации и распознавания необходимо проводить с учетом всех известных параметров поставленной задачи, а для специфических задач требуется разрабатывать собственные алгоритмы решения.В третьей главе разработан алгоритм диагностики по медицинским изображениям на основе метода главных компонент, который состоит из трех частей:предварительная обработка изображения;преобразование с помощью метода главных компонент;диагностика с помощью нейронной сети.Подробно рассмотрены действия, которые необходимо выполнить в процессе работы каждой из частей алгоритма.В четвертой главе реализован алгоритм сегментации и распознавания медицинских изображений в математическом пакете Matlab.Таким образом, в результате выполнения работы достигнута её основная цель разработаны алгоритмы сегментации и распознавания объектов на медицинских изображениях.СПИСОК ЛИТЕРАТУРЫЛаричевО.И., ПетровскийА.В. Системы поддержки принятия решений. Современное состояние и перспективы их развития. // Итоги науки и техники. Сер. Техническая кибернетика. − Т.21. М.: ВИНИТИ, 1987. с. 131−164ТерелянскийП.В. Системы поддержки принятия решений. Опыт проектирования: монография / П. В. Терелянский; ВолгГТУ.− Волгоград, 2009.127 с.Нейронныесети. Statistica Neural Networks. Методология и технологии современного анализа данных; Горячая Линия - Телеком - , 2008. - 392 c.Бажова Юлия Сети; Центрполиграф - Москва, 2013. - 480 c.Барский А. Б. Логические нейронные сети; Интернет-университет информационных технологий, Бином. Лаборатория знаний - Москва, 2007. - 352 c.Величко В. В., Субботин Е. А., Шувалов В. П., Ярославцев А. Ф. Телекоммуникационные системы и сети. Том 3. Мультисервисные сети. Учебное пособие; Горячая Линия - Телеком - , 2005. - 592 c.Галушкин А. И. Нейронные сети. Основы теории; Горячая Линия - Телеком - , 2012. - 496 c.Круглов В.В., Дли М.И., Голунов Р.Ю. Нечеткая логика и искусственные нейронные сети; Wings Comics - Москва, 2001. - 779 c. Круглов, В.В.; Борисов, В.В. Искусственные нейронные сети. Теория и практика; М.: Горячая линия - Телеком; Издание 2-е, стер. - Москва, 2002. - 382 c.Lindsay, Robert K., Bruce G. Buchanan, E. A. Feigenbaum, and Joshua Lederberg. DENDRAL: A Case Study of the First Expert System for Scientific Hypothesis Formation. Artificial Intelligence 61, 2 (1993): 209-261.E. H. Shortliffe. Computer-Based Medical Consultations: MYCIN. Elsevier/North Holland, New York NY, 1976.http://www.casnet.comhttp://dxplain.org/dxp/dxp.plBarnett GO, Cimino JJ, Hupp JA, Hoffer EP. DXplain – an evolving diagnostic decision-support system. JAMA. 1987; 258: 67-74.Doherty J, Noirot LA, Mayfield J, Ramiah S, Huang C, Dunagan WC, Bailey TC. Implementing GermWatcher, an enterprise infection control application. AMIA Annu Symp Proc.2006:209-13.Glenn Edwards, Paul Compton, Ron Malor, Ashwin Srinivasan, Leslie Lazarus. Peirs: A pathologistmaintained expert system for the interpretation of chemical pathology reports. Pathology. 1993, Vol. 25, No.1, Pages 27-34 Мкртчян, С.О. Нейроны и нейронные сети; М.: Энергия - Москва, 1986. - 232 c.Редько В. Г. Эволюция, нейронные сети, интеллект. Модели и концепции эволюционной кибернетики; Либроком - Москва, 2013. - 224 c.Смелянский Р. Л. Компьютерные сети. В 2 томах. Том 2. Сети ЭВМ; Академия - Москва, 2011. - 240 c.Тархов Д. А. Нейронные сети. Модели и алгоритмы. Книга 18; Радиотехника - Москва, 2005. - 256 c.Татузов А. Л. Нейронные сети в задачах радиолокации; Радиотехника - Москва, 2009. - 432 c.Хайкин, Саймон Нейронные сети: полный курс; М.: Вильямс - Москва, 2006. - 781 c.Ширяев В. И. Финансовые рынки. Нейронные сети, хаос и нелинейная динамика; Либроком - Москва, 2013. - 232 c.Яхъяева Г. Э. Нечеткие множества и нейронные сети; Интернет-университет информационных технологий, Бином. Лаборатория знаний - Москва, 2011. - 320 c.Яхъяева, Г.Э. Нечеткие множества и нейронные сети; Интернет-университет информационных технологий - Москва, 2006. - 320 c.Стратонович, Р.Л. Теория информации: моногр. / Р.Л. Стратонович. - М., 2016. Шеннон, К. Работы по теории информации и кибернетике / К. Шеннон. - М., 2016.Бриггс, Джейсон Python для детей. Самоучитель по программированию / Джейсон Бриггс. - Москва: Огни, 2013. - 177 c.Бэрри, Пол Изучаем программирование на Python / Пол Бэрри. - М.: Эксмо, 2016. - 332 c.Васильев, А. Н. Python на примерах. Практический курс по программированию / А.Н. Васильев. - М.: Наука и техника, 2016. - 432 c.Гуриков, С.Р. Основы алгоритмизации и программирования на Python / С.Р. Гуриков. - М.: Форум, 2018. - 991 c.МакГрат, Майк Python. Программирование для начинающих / Майк МакГрат. - М.: Эксмо, 2013. - 727 c.Гуриков, С.Р. Основы алгоритмизации и программирования на Python. Учебное пособие. Гриф МО РФ / С.Р. Гуриков. - М.: Инфра-М, Форум, 2018. - 707 c.Златопольский, Д. М. Основы программирования на языке Python / Д.М. Златопольский. - М.: ДМК Пресс, 2017. - 277 c.Эрик, Мэтиз Изучаем Python. Программирование игр, визуализация данных, веб-приложения / Мэтиз Эрик. - М.: Питер, 2017. - 551 c.Васильев, Александр Николаевич Python на примерах. Практический курс по программированию. Руководство / Васильев Александр Николаевич. - М.: Наука и техника, 2017. - 752 c.Эрик, Мэтиз Изучаем Python. Программирование игр, визуализация данных, веб-приложения / Мэтиз Эрик. - М.: Питер, 2018. - 760 c.Круглов, В.В.; Борисов, В.В. Искусственные нейронные сети. Теория и практика; М.: Горячая линия - Телеком; Издание 2-е, стер. - Москва, 2002. - 382 c.Мкртчян, С.О. Нейроны и нейронные сети; М.: Энергия - Москва, 1986. - 232 c.Редько В. Г. Эволюция, нейронные сети, интеллект. Модели и концепции эволюционной кибернетики; Либроком - Москва, 2013. - 224 c.Тархов Д. А. Нейронные сети. Модели и алгоритмы. Книга 18; Радиотехника - Москва, 2005. - 256 c.Татузов А. Л. Нейронные сети в задачах радиолокации; Радиотехника - Москва, 2009. - 432 c.Хайкин, Саймон Нейронные сети: полный курс; М.: Вильямс - Москва, 2006. - 781 c.Ширяев В. И. Финансовые рынки. Нейронные сети, хаос и нелинейная динамика; Либроком - Москва, 2013. - 232 c.Яхъяева Г. Э. Нечеткие множества и нейронные сети; Интернет-университет информационных технологий, Бином. Лаборатория знаний - Москва, 2011. - 320 c.Галушкин А. И. Нейронные сети. Основы теории; Горячая Линия - Телеком - , 2012. - 496 c.Круглов В.В., Дли М.И., Голунов Р.Ю. Нечеткая логика и искусственные нейронные сети; Wings Comics - Москва, 2001. - 779 c.ПРИЛОЖЕНИЕdetectionInitial.m:initialImage1 = cast(imread('1.bmp'),'double');initialImage2 = cast(imread('2.bmp'),'double');initialImage3 = cast(imread(M{1}),'double');initialSize = size(initialImage1);result = zeros(2, 300);l = 1;S = 76*55;for i = 1:76:initialSize(1) for j = 1:55:initialSize(2) S1R = 0; S2R = 0; S3R = 0; S1G = 0; S2G = 0; S3G = 0; S1B = 0; S2B = 0; S3B = 0; for i_ = 0:75 for j_ = 0:54 S1R = S1R + initialImage1(i+i_,j+j_,1); S1G = S1G + initialImage1(i+i_,j+j_,2); S1B = S1B + initialImage1(i+i_,j+j_,3); S2R = S2R + initialImage2(i+i_,j+j_,1); S2G = S2G + initialImage2(i+i_,j+j_,2); S2B = S2B + initialImage2(i+i_,j+j_,3); S3R = S3R + initialImage3(i+i_,j+j_,1); S3G = S3G + initialImage3(i+i_,j+j_,2); S3B = S3B + initialImage3(i+i_,j+j_,3); end end result(1,l) = S1R/S; result(1,l+1) = S1G/S; result(1,l+2) = S1B/S; result(2,l) = S2R/S; result(2,l+1) = S2G/S; result(2,l+2) = S2B/S; result(3,l) = S3R/S; result(3,l+1) = S3G/S; result(3,l+2) = S3B/S; l = l + 3; endendCovariance = cov(result(1:2,1:300));s = sqrt(diag(Covariance));Correlation = Covariance ./ (s*s');[U,latent,pcacoef] = svd(Correlation);latent = diag(latent);T = result*pcacoef(1:300,1:2);min = 1000000;for i = 1:2 if (abs(T(i,1)-T(3,1))+abs(T(i,2)-T(3,2))+abs(T(i,3)-T(3,3)) < min) min = abs(T(i,1)-T(3,1))+abs(T(i,2)-T(3,2))+abs(T(i,3)-T(3,3)); classNumber = i; endendif (classNumber == 1) className = 'Патологии нет';endif (classNumber == 2) className = 'Патология присутствует';endhandles.text2.String = className;detectionInterface.m:function varargout = detectionInterface(varargin)% DETECTIONINTERFACE MATLAB code for detectionInterface.fig% DETECTIONINTERFACE, by itself, creates a new DETECTIONINTERFACE or raises the existing% singleton*.%% H = DETECTIONINTERFACE returns the handle to a new DETECTIONINTERFACE or the handle to% the existing singleton*.%% DETECTIONINTERFACE('CALLBACK',hObject,eventData,handles,...) calls the local% function named CALLBACK in DETECTIONINTERFACE.M with the given input arguments.%% DETECTIONINTERFACE('Property','Value',...) creates a new DETECTIONINTERFACE or raises the% existing singleton*. Starting from the left, property value pairs are% applied to the GUI before detectionInterface_OpeningFcn gets called. An% unrecognized property name or invalid value makes property application% stop. All inputs are passed to detectionInterface_OpeningFcn via varargin.%% *See GUI Options on GUIDE's Tools menu. Choose "GUI allows only one% instance to run (singleton)".%% See also: GUIDE, GUIDATA, GUIHANDLES% Edit the above text to modify the response to help detectionInterface% Last Modified by GUIDE v2.5 14-Jun-2018 15:29:39% Begin initialization code - DO NOT EDITgui_Singleton = 1;gui_State = struct('gui_Name', mfilename, ... 'gui_Singleton', gui_Singleton, ... 'gui_OpeningFcn', @detectionInterface_OpeningFcn, ... 'gui_OutputFcn', @detectionInterface_OutputFcn, ... 'gui_LayoutFcn', [] , ... 'gui_Callback', []);if nargin && ischar(varargin{1}) gui_State.gui_Callback = str2func(varargin{1});endif nargout [varargout{1:nargout}] = gui_mainfcn(gui_State, varargin{:});else gui_mainfcn(gui_State, varargin{:});end% End initialization code - DO NOT EDIT% --- Executes just before detectionInterface is made visible.function detectionInterface_OpeningFcn(hObject, eventdata, handles, varargin)% This function has no output args, see OutputFcn.% hObject handle to figure% eventdata reserved - to be defined in a future version of MATLAB% handles structure with handles and user data (see GUIDATA)% varargin command line arguments to detectionInterface (see VARARGIN)% Choose default command line output for detectionInterfacehandles.output = hObject;% Update handles structureguidata(hObject, handles);% UIWAIT makes detectionInterface wait for user response (see UIRESUME)% uiwait(handles.figure1);% --- Outputs from this function are returned to the command line.function varargout = detectionInterface_OutputFcn(hObject, eventdata, handles) % varargout cell array for returning output args (see VARARGOUT);% hObject handle to figure% eventdata reserved - to be defined in a future version of MATLAB% handles structure with handles and user data (see GUIDATA)% Get default command line output from handles structurevarargout{1} = handles.output;% --- Executes on button press in pushbutton1.function pushbutton1_Callback(hObject, eventdata, handles)M = inputdlg('Адрес распознаваемого изображения');detectionFinal;% hObject handle to pushbutton1 (see GCBO)% eventdata reserved - to be defined in a future version of MATLAB% handles structure with handles and user data (see GUIDATA)

СПИСОК ЛИТЕРАТУРЫ

1. ЛаричевО.И., ПетровскийА.В. Системы поддержки принятия решений. Современное состояние и перспективы их развития. // Итоги науки и техники. Сер. Техническая кибернетика. − Т.21. М.: ВИНИТИ, 1987. с. 131−164
2. ТерелянскийП.В. Системы поддержки принятия решений. Опыт проектирования: монография / П. В. Терелянский; ВолгГТУ.− Волгоград, 2009.127 с.
3. Нейронные сети. Statistica Neural Networks. Методология и технологии современного анализа данных; Горячая Линия - Телеком - , 2008. - 392 c.
4. Бажова Юлия Сети; Центрполиграф - Москва, 2013. - 480 c.
5. Барский А. Б. Логические нейронные сети; Интернет-университет информационных технологий, Бином. Лаборатория знаний - Москва, 2007. - 352 c.
6. Величко В. В., Субботин Е. А., Шувалов В. П., Ярославцев А. Ф. Телекоммуникационные системы и сети. Том 3. Мультисервисные сети. Учебное пособие; Горячая Линия - Телеком - , 2005. - 592 c.
7. Галушкин А. И. Нейронные сети. Основы теории; Горячая Линия - Телеком - , 2012. - 496 c.
8. Круглов В.В., Дли М.И., Голунов Р.Ю. Нечеткая логика и искусственные нейронные сети; Wings Comics - Москва, 2001. - 779 c.
9. Круглов, В.В.; Борисов, В.В. Искусственные нейронные сети. Теория и практика; М.: Горячая линия - Телеком; Издание 2-е, стер. - Москва, 2002. - 382 c.
10. Lindsay, Robert K., Bruce G. Buchanan, E. A. Feigenbaum, and Joshua Lederberg. DENDRAL: A Case Study of the First Expert System for Scientific Hypothesis Formation. Artificial Intelligence 61, 2 (1993): 209-261.
11. E. H. Shortliffe. Computer-Based Medical Consultations: MYCIN. Elsevier/North Holland, New York NY, 1976.
12. http://www.casnet.com
13. http://dxplain.org/dxp/dxp.pl
14. Barnett GO, Cimino JJ, Hupp JA, Hoffer EP. DXplain – an evolving diagnostic decision-support system. JAMA. 1987; 258: 67-74.
15. Doherty J, Noirot LA, Mayfield J, Ramiah S, Huang C, Dunagan WC, Bailey TC. Implementing GermWatcher, an enterprise infection control application. AMIA Annu Symp Proc.2006:209-13.
16. Glenn Edwards, Paul Compton, Ron Malor, Ashwin Srinivasan, Leslie Lazarus. Peirs: A pathologistmaintained expert system for the interpretation of chemical pathology reports. Pathology. 1993, Vol. 25, No.1, Pages 27-34
17. Мкртчян, С.О. Нейроны и нейронные сети; М.: Энергия - Москва, 1986. - 232 c.
18. Редько В. Г. Эволюция, нейронные сети, интеллект. Модели и концепции эволюционной кибернетики; Либроком - Москва, 2013. - 224 c.
19. Смелянский Р. Л. Компьютерные сети. В 2 томах. Том 2. Сети ЭВМ; Академия - Москва, 2011. - 240 c.
20. Тархов Д. А. Нейронные сети. Модели и алгоритмы. Книга 18; Радиотехника - Москва, 2005. - 256 c.
21. Татузов А. Л. Нейронные сети в задачах радиолокации; Радиотехника - Москва, 2009. - 432 c.
22. Хайкин, Саймон Нейронные сети: полный курс; М.: Вильямс - Москва, 2006. - 781 c.
23. Ширяев В. И. Финансовые рынки. Нейронные сети, хаос и нелинейная динамика; Либроком - Москва, 2013. - 232 c.
24. Яхъяева Г. Э. Нечеткие множества и нейронные сети; Интернет-университет информационных технологий, Бином. Лаборатория знаний - Москва, 2011. - 320 c.
25. Яхъяева, Г.Э. Нечеткие множества и нейронные сети; Интернет-университет информационных технологий - Москва, 2006. - 320 c.
26. Стратонович, Р.Л. Теория информации: моногр. / Р.Л. Стратонович. - М., 2016.
27. Шеннон, К. Работы по теории информации и кибернетике / К. Шеннон. - М., 2016.
28. Бриггс, Джейсон Python для детей. Самоучитель по программированию / Джейсон Бриггс. - Москва: Огни, 2013. - 177 c.
29. Бэрри, Пол Изучаем программирование на Python / Пол Бэрри. - М.: Эксмо, 2016. - 332 c.
30. Васильев, А. Н. Python на примерах. Практический курс по программированию / А.Н. Васильев. - М.: Наука и техника, 2016. - 432 c.
31. Гуриков, С.Р. Основы алгоритмизации и программирования на Python / С.Р. Гуриков. - М.: Форум, 2018. - 991 c.
32. МакГрат, Майк Python. Программирование для начинающих / Майк МакГрат. - М.: Эксмо, 2013. - 727 c.
33. Гуриков, С.Р. Основы алгоритмизации и программирования на Python. Учебное пособие. Гриф МО РФ / С.Р. Гуриков. - М.: Инфра-М, Форум, 2018. - 707 c.
34. Златопольский, Д. М. Основы программирования на языке Python / Д.М. Златопольский. - М.: ДМК Пресс, 2017. - 277 c.
35. Эрик, Мэтиз Изучаем Python. Программирование игр, визуализация данных, веб-приложения / Мэтиз Эрик. - М.: Питер, 2017. - 551 c.
36. Васильев, Александр Николаевич Python на примерах. Практический курс по программированию. Руководство / Васильев Александр Николаевич. - М.: Наука и техника, 2017. - 752 c.
37. Эрик, Мэтиз Изучаем Python. Программирование игр, визуализация данных, веб-приложения / Мэтиз Эрик. - М.: Питер, 2018. - 760 c.
38. Круглов, В.В.; Борисов, В.В. Искусственные нейронные сети. Теория и практика; М.: Горячая линия - Телеком; Издание 2-е, стер. - Москва, 2002. - 382 c.
39. Мкртчян, С.О. Нейроны и нейронные сети; М.: Энергия - Москва, 1986. - 232 c.
40. Редько В. Г. Эволюция, нейронные сети, интеллект. Модели и концепции эволюционной кибернетики; Либроком - Москва, 2013. - 224 c.
41. Тархов Д. А. Нейронные сети. Модели и алгоритмы. Книга 18; Радиотехника - Москва, 2005. - 256 c.
42. Татузов А. Л. Нейронные сети в задачах радиолокации; Радиотехника - Москва, 2009. - 432 c.
43. Хайкин, Саймон Нейронные сети: полный курс; М.: Вильямс - Москва, 2006. - 781 c.
44. Ширяев В. И. Финансовые рынки. Нейронные сети, хаос и нелинейная динамика; Либроком - Москва, 2013. - 232 c.
45. Яхъяева Г. Э. Нечеткие множества и нейронные сети; Интернет-университет информационных технологий, Бином. Лаборатория знаний - Москва, 2011. - 320 c.
46. Галушкин А. И. Нейронные сети. Основы теории; Горячая Линия - Телеком - , 2012. - 496 c.
47. Круглов В.В., Дли М.И., Голунов Р.Ю. Нечеткая логика и искусственные нейронные сети; Wings Comics - Москва, 2001. - 779 c.

Вопрос-ответ:

Какие алгоритмы используются для сегментации и распознавания объектов на медицинских изображениях?

В работе рассматриваются различные алгоритмы для сегментации и распознавания объектов на медицинских изображениях, такие как алгоритмы пороговой сегментации, алгоритмы уровней сегментации, алгоритмы основанные на машинном обучении и глубоком обучении.

Какие проблемы возникают при сегментации и распознавании объектов на медицинских изображениях?

При сегментации и распознавании объектов на медицинских изображениях возникают такие проблемы, как шум на изображении, различные структуры объектов, неоднородность изображений, изменения размеров и формы объектов, недостаточность размеченных данных для обучения.

Какие методы применяются для улучшения качества сегментации и распознавания объектов на медицинских изображениях?

Для улучшения качества сегментации и распознавания объектов на медицинских изображениях применяются методы предобработки изображений, такие как фильтрация, улучшение контраста, устранение шума, а также методы повышения качества обучения моделей, такие как аугментация данных, использование предобученных моделей, комбинация разных алгоритмов.

Какие примеры медицинских изображений можно использовать для разработки алгоритмов сегментации и распознавания объектов?

Для разработки алгоритмов сегментации и распознавания объектов на медицинских изображениях можно использовать различные виды изображений, такие как изображения, полученные с помощью компьютерной томографии, магнитно-резонансной томографии, рентгена, ультразвука и других методов визуализации.

Какие преимущества может принести разработка эффективных алгоритмов сегментации и распознавания объектов на медицинских изображениях?

Разработка эффективных алгоритмов сегментации и распознавания объектов на медицинских изображениях может принести такие преимущества, как автоматизация процесса анализа изображений, ускорение диагностики и лечения, возможность раннего выявления и улучшения точности диагноза, улучшение визуализации и взаимодействия с медицинскими изображениями.

Зачем нужна разработка алгоритмов сегментации и распознавания объектов на медицинских изображениях?

Разработка таких алгоритмов позволяет автоматизировать и ускорить процесс анализа медицинских изображений, что способствует более точному и быстрому диагнозу различных заболеваний.

Какие основные технологии используются для проведения компьютерной томографии?

Основные технологии, используемые для проведения компьютерной томографии, включают рентгеновские лучи, детекторы и компьютерную обработку изображений.

Какие особенности имеют медицинские изображения, полученные с помощью компьютерной томографии?

Медицинские изображения, полученные с помощью компьютерной томографии, обладают высокой детализацией и контрастностью, что позволяет более точно определить структуру и состояние объектов внутри тела пациента.

Какие приборы и методы используются для получения медицинских изображений?

Для получения медицинских изображений используются приборы, такие как компьютерный томограф, магнитно-резонансный томограф, рентгеновский аппарат и другие. Каждый из этих приборов использует свои методы сканирования и получения изображений.