KR20190090986A - System and method for assisting chest medical images reading - Google Patents

System and method for assisting chest medical images reading Download PDF

Info

Publication number
KR20190090986A
KR20190090986A KR1020180009862A KR20180009862A KR20190090986A KR 20190090986 A KR20190090986 A KR 20190090986A KR 1020180009862 A KR1020180009862 A KR 1020180009862A KR 20180009862 A KR20180009862 A KR 20180009862A KR 20190090986 A KR20190090986 A KR 20190090986A
Authority
KR
South Korea
Prior art keywords
medical image
brightness
unit
chest
reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020180009862A
Other languages
Korean (ko)
Other versions
KR102178803B1 (en
Inventor
서준범
김남국
조용원
Original Assignee
울산대학교 산학협력단
재단법인 아산사회복지재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단, 재단법인 아산사회복지재단 filed Critical 울산대학교 산학협력단
Priority to KR1020180009862A priority Critical patent/KR102178803B1/en
Publication of KR20190090986A publication Critical patent/KR20190090986A/en
Application granted granted Critical
Publication of KR102178803B1 publication Critical patent/KR102178803B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Pulmonology (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a method and a system for assisting chest medical image reading. The method for assisting chest medical image reading comprises the following steps: obtaining a chest medical image of a patient by a medical image obtaining unit; adjusting the brightness of the chest medical image obtained by a histogram matching unit; segmenting only a lung part in the chest medical image of which the brightness is adjusted from a segmentation unit; standardizing the segmented lung part by a space standardization unit; and reading the standardized medical image in the space standardization unit from a reading unit.

Description

흉부 의료 영상 판독 지원 시스템 및 방법{SYSTEM AND METHOD FOR ASSISTING CHEST MEDICAL IMAGES READING}Chest medical image reading support system and method {SYSTEM AND METHOD FOR ASSISTING CHEST MEDICAL IMAGES READING}

본 개시(Disclosure)는 전체적으로 의료 영상 판독 지원 시스템에 관한 것으로, 특히 인공지능을 활용한 흉부 의료 영상 판독 지원 시스템 및 방법에 대한 것이다.The present disclosure relates to a medical image reading support system as a whole, and more particularly, to a chest medical image reading support system and method using artificial intelligence.

여기서는, 본 개시에 관한 배경기술이 제공되며, 이들이 반드시 공지기술을 의미하는 것은 아니다(This section provides background information related to the present disclosure which is not necessarily prior art). 또한 본 명세서에서 상측/하측, 위/아래 등과 같은 방향 표시는 도면을 기준으로 한다. This section provides background information related to the present disclosure which is not necessarily prior art. In addition, in the present specification, direction indications such as up / down, up / down, etc. are based on the drawings.

의료 분야에 있어서, 의사는 환자를 촬영한 의료 영상을 모니터에 표시하고, 모니터에 표시된 의료 영상을 판독하고, 병변부의 상태나 경시 변화를 관찰한다. 의료 영상을 이용한 영상 진단에 있어서, 의사는 진단 대상인 의료 영상으로부터 이상 음영 등이 무엇일지를 진단한다. 영상 진단시 의사가 작성하는 판독문에는 발견한 이상 음영 등이 무엇인가를 판단 결과와 판단의 근거가 되는 판독 의견이 기재된다. 이 때, 의사가 기록한 판독 의견이나 추정 병명은 반드시 맞다고 할 수 없다. 예를 들면, 1개의 의료 영상을 판독하기 위해 의사가 많은 시간을 소비할 수 없거나 판독 경험이 낮은 의사가 의료 영상에서 찾기 어려운 이상 음영이나 특징을 포착하기 어려운 이상 음영을 관찰했을 경우에는, 이상 음영을 누락할 가능성이 있으며 또는 추정 병명의 판단을 오판할 가능성이 있었다. 이러한 의료 영상의 판독에서 발생할 수 있는 문제점을 해결할 목적으로, 의료 영상을 디지털화해서 의료 영상을 분석할 때 질환 부위를 자동적으로 검출하고, 컴퓨터에 의한 의료 영상 판독을 지원하는 시스템이 개발되고 있다. 이러한 컴퓨터 지원 시스템을 CAD(Computer Aided Diagnosis)하고 한다. CAD에서는 자동적으로 이상 음영 후보를 질환부위로 검출한다. 이상 음영의 검출 처리에서는 의료 영상 데이터를 컴퓨터 처리에 의한다. In the medical field, a doctor displays a medical image of a patient on a monitor, reads out a medical image displayed on the monitor, and observes the state of the lesion and changes over time. In image diagnosis using a medical image, a doctor diagnoses anomalous shadows or the like from a medical image to be diagnosed. The reading made by the doctor at the time of image diagnosis includes the judgment result and the reading opinion on which the judgment is based on what is found in the abnormal shadow. At this time, the reading opinion and the estimated disease name recorded by the doctor are not necessarily correct. For example, if a doctor cannot spend a lot of time reading a single medical image, or if a doctor with low reading experience observes abnormal shadows or difficult shadows that are difficult to find in a medical image, the abnormal shadows There was a possibility to omit or misjudge the judgment of presumptive disease. In order to solve the problems that may occur in the reading of the medical image, a system for automatically detecting a diseased part when analyzing a medical image by digitizing the medical image and supporting a medical image reading by a computer has been developed. The computer aided system is CAD (Computer Aided Diagnosis). CAD automatically detects abnormal shadow candidates as disease sites. In the detection process of abnormal shadows, medical image data is subjected to computer processing.

도 1은 일본 등록특허공보 제599514호에 기재된 의료 영상 판독 지원 시스템의 일 예를 보여주는 도면이다. 설명의 편의를 위해 도면기호 및 용어를 일부 변경하였다.1 is a view showing an example of a medical image reading support system described in Japanese Patent No. 599514. For convenience of description, some symbols and terms have been changed.

의료 영상 판독 지원 시스템(10)은 의료 영상 취득부(11), 이상 음영 검출부(12) 및 CAD 소견 생성부(13) 등을 포함하고 있다. 특히 CAD 소견 생성부(13)에서 병명을 추정하기 위한 추론기로서 서포트 벡터 머신이나, 뉴럴 네트워크, 베이지안 네트워크 등이 이용될 수 있다. The medical image reading support system 10 includes a medical image obtaining unit 11, an abnormal shadow detection unit 12, a CAD finding generation unit 13, and the like. In particular, a support vector machine, a neural network, a Bayesian network, or the like may be used as the inference device for estimating the disease name in the CAD finding generation unit 13.

도 2는 한국 공개특허공보 제2017-0046105호에 기재된 의료 영상 판독 지원 시스템의 일 예를 보여주는 도면이다. 설명의 편의를 위해 도면기호 및 용어를 일부 변경하였다.2 is a diagram illustrating an example of a medical image reading support system described in Korean Laid-Open Patent Publication No. 2017-0046105. For convenience of description, some symbols and terms have been changed.

의료 영상 판독 지원 시스템은 진단부에서 딥러닝 알고리즘을 활용하여 환자의 폐 이미지를 판독하여 결핵 감염 여부를 판단한다. The medical image reading support system uses a deep learning algorithm to determine whether the tuberculosis is infected by reading a lung image of the patient.

도 1 및 도 2에 개시된 종래의 의료 영상 판독 지원 시스템은 인공 지능(AI;Artifical Intelligence)을 활용하여 의료 영상 판독 지원 시스템의 정확도를 향상시키고 있지만, 인공 지능이 판단하는 의료 영상의 품질이 낮은 경우 인공 지능이 의료 영상을 적절히 판단할 수 없기 때문에 의료 영상 판독 지원 시스템의 정확도를 향상시키기 어려운 문제가 있다.Although the conventional medical image reading support system disclosed in FIGS. 1 and 2 improves the accuracy of the medical image reading support system by utilizing artificial intelligence (AI), the quality of the medical image determined by the artificial intelligence is low. Since artificial intelligence cannot properly determine medical images, it is difficult to improve the accuracy of the medical image reading support system.

본 개시는 인공 지능이 판단하는 의료 영상의 품질을 향상시켜 인공 지능을 활용한 의료 영상 판독 지원 시스템의 정확도를 향상시킨 의료 영상 판독 지원 시스템 및 방법을 제공하고자 한다.The present disclosure is to provide a medical image reading support system and method for improving the accuracy of the medical image reading support system using artificial intelligence by improving the quality of medical images judged by artificial intelligence.

이에 대하여 '발명을 실시하기 위한 구체적인 내용'의 후단에 기술한다.This will be described later in the section titled 'Details of the Invention.'

여기서는, 본 개시의 전체적인 요약(Summary)이 제공되며, 이것이 본 개시의 외연을 제한하는 것으로 이해되어서는 아니된다(This section provides a general summary of the disclosure and is not a comprehensive disclosure of its full scope or all of its features).SUMMARY OF THE INVENTION Herein, a general summary of the present disclosure is provided, which should not be construed as limiting the scope of the present disclosure. of its features).

본 개시에 따른 일 태양에 의하면(According to one aspect of the present disclosure), 흉부 의료 영상 판독을 지원하는 방법에 있어서, 의료 영상 획득부가 환자의 흉부 의료 영상을 획득하는 단계; 히스토그램 매칭부가 획득한 흉부 의료 영상의 명도를 조정하는 단계; 세그멘테이션부가 명도가 조정된 흉부 의료 영상에서 폐 부분만을 세그멘테이션하는 단계; 공간 표준화부가 세그멘테이션된 폐 부분을 표준화하는 단계; 그리고 판독부가 공간 표준화부에서 표준화된 의료 영상을 판독하는 단계;를 포함하는 흉부 의료 영상 판독을 지원하는 방법이 제공된다.According to one aspect of the present disclosure (According to one aspect of the present disclosure), a method of supporting chest medical image reading, the method comprising: obtaining, by a medical image acquisition unit, a chest medical image of a patient; Adjusting brightness of a chest medical image obtained by a histogram matching unit; Segmenting the lungs in the chest medical image in which the segmentation unit is adjusted in brightness; Standardizing the segmented lung part by the spatial standardization unit; And a reading unit reading the normalized medical image by the spatial standardizing unit.

본 개시에 따른 다른 태양에 의하면(According to another aspect of the present disclosure), 흉부 의료 영상 판독을 지원하는 시스템에 있어서, 환자의 흉부 의료 영상을 획득하는 의료 영상 획득부; 의료 영상 획득부에서 획득한 환자의 흉부 의료 영상의 명도를 매칭하는 히스토그램 매칭부; 명도가 매칭된 환자의 흉부 의료 영상에서 판독이 필요한 폐 부분을 세그멘테이션 하는 세그멘테이션부; 세그멘테이션 된 폐 부분을 표준화하는 공간 표준화부; 그리고, 표준화된 환자의 의료 영상을 판독하는 판독부;를 포함하는 흉부 의료 영상 판독 지원 시스템이 제공된다.According to another aspect of the present disclosure (According to another aspect of the present disclosure), a system for supporting a chest medical image reading, comprising: a medical image acquisition unit for acquiring a chest medical image of a patient; A histogram matching unit matching the brightness of the chest medical image of the patient acquired by the medical image obtaining unit; Segmentation unit for segmenting the lung portion that needs to be read in the chest medical image of the patient with matching brightness; A spatial standardization unit for standardizing segmented lung parts; In addition, a readout unit for reading a medical image of a standardized patient is provided.

이에 대하여 '발명을 실시하기 위한 구체적인 내용'의 후단에 기술한다.This will be described later in the section titled 'Details of the Invention.'

도 1은 일본 등록특허공보 제599514호에 기재된 의료 영상 판독 지원 시스템의 일 예를 보여주는 도면,
도 2는 한국 공개특허공보 제2017-0046105호에 기재된 의료 영상 판독 지원 시스템의 일 예를 보여주는 도면,
도 3은 본 개시에 따른 의료 영상 판독 지원 시스템의 일 예를 보여주는 도면,
도 4는 본 개시에 따른 히스토그램 매칭부를 설명하는 도면,
도 5는 본 개시에 따른 세그멘테이션부를 설명하는 도면,
도 6은 본 개시에 따른 공간 표준화부를 설명하는 도면,
도 7은 본 개시에 따른 의료 영상 판독 지원 시스템을 사용한 방법의 일 예를 보여주는 흐름도,
도 8은 본 개시에 따른 의료 영상 판독 지원 시스템을 사용한 방법의 또 다른 예를 보여주는 흐름도,
도 9는 판독부에 의해 작성된 판독문의 일 예를 보여주는 도면.
1 is a view showing an example of a medical image reading support system described in Japanese Patent No. 599514,
2 is a view showing an example of a medical image reading support system described in Korean Patent Laid-Open No. 2017-0046105;
3 is a view showing an example of a medical image reading support system according to the present disclosure;
4 is a diagram illustrating a histogram matching unit according to the present disclosure;
5 is a diagram illustrating a segmentation unit according to the present disclosure;
6 is a view for explaining a spatial standardization unit according to the present disclosure;
7 is a flowchart illustrating an example of a method using a medical image reading support system according to the present disclosure;
8 is a flowchart illustrating still another example of a method using a medical image reading support system according to the present disclosure;
9 is a view showing an example of a read statement made by a reading unit.

이하, 본 개시를 첨부된 도면을 참고로 하여 자세하게 설명한다(The present disclosure will now be described in detail with reference to the accompanying drawing(s)). The present disclosure will now be described in detail with reference to the accompanying drawing (s).

도 3은 본 개시에 따른 의료 영상 판독 지원 시스템의 일 예를 보여주는 도면이다.3 is a diagram illustrating an example of a medical image reading support system according to the present disclosure.

의료 영상 판독 지원 시스템(100)은 의료 영상 획득부(110), 히스토그램 매칭부(120), 세그멘테이션부(130), 공간 표준화부(140) 및 판독부(150)를 포함한다. 의료 영상 획득부(110)는 판독이 필요한 환자의 의료 영상을 획득한다. 의료 영상 획득부(110)는 X-Ray 장치, CT(Computed Tomography; 컴퓨터단층촬영장치) 또는 MRI(Magnetic Resonance Imaging; 자기공명영상장치) 등과 같은 디지털 의료 영상 촬영 장치로부터 직접 의료 영상을 얻을 수 있으며, 또는 디지털 의료 영상 촬영 장치가 촬영한 디지털 의료 영상이 저장된 서버(Server)로부터 의료 영상 전송 시스템(PACS)에 의해 얻을 수 있으며, 또는 외부기억장치(예:FDD, HDD, CD드라이브 등)와 접속하여 환자의 의료 영상을 얻을 수 있으나 이에 한정되지는 않는다. 히스토그램 매칭부(Histogram Matching; 120)는 의료 영상 획득부(110)에서 얻은 환자의 의료 영상의 명도(intensity)를 매칭한다. 즉 환자의 의료 영상의 명도를 기준이 되는 표준 명도와 매칭하여 인공 지능이 환자의 의료 영상을 더 잘 판독할 수 있도록 하는 것으로 자세한 방법은 도 4에서 기술한다. 세그멘테이션부(130)는 히스토그램 매칭부(120)에 의해 명도가 표준화된 의료 영상에서 판독이 필요한 부분을 분할(Segmentation)하는 것으로 자세한 방법은 도 5에서 기술한다. 공간 표준화부(Spatial Nomalizaton; 140)는 세그멘테이션부(130)에 의해 분할된 의료 영상의 크기를 일정한 크기로 표준화 하는 것으로 자세한 방법은 도 6에서 설명한다. 판독부(Reading; 150)는 공간 표준화부(140)에서 크기가 표준화된 의료 영상을 AI에 의해 판독한 후 판독문을 작성하여 의사에게 제공한다. 특히 히스토그램 매칭부(120) 및 공간 표준화부(140)에 의해 의료 영상을 전처리함으로써 AI가 의료 영상을 판독할 때 판독 효율을 향상시켜 판독의 정확도를 높일 수 있다. 판독부(150)에 사용되는 AI는 딥 뉴럴 네트워크가 바람직하다. 또한 인공 지능인 딥 뉴럴 네트워크는 일반적으로 환자의 의료 영상을 판독하기 위해서 학습이 필요하다. 딥 뉴럴 네트워크의 학습에 사용되는 데이터를 학습 데이터라고 한다. 본 개시에서는 판독이 필요한 환자의 의료 영상이 히스토그램 매칭부(120) 및 공간 표준화부(140) 등을 특징으로 갖는 전처리 과정을 거치기 때문에 본 개시의 의료 영상 판독 지원 시스템(100)에 사용되는 딥 뉴럴 네트워크의 학습 데이터인 복수의 의료 영상도 동일한 전처리 과정을 거치는 것이 바람직하다. 예를 들어 학습 데이터로 사용되는 복수의 의료 영상은 의료 영상 획득부(110)에 의해 획득된 후, 히스토그램 매칭부(120), 세그멘테이션부(130), 공간 표준화부(140)를 거쳐 의료 영상이 전 처리된 후 판독부(150)의 딥 뉴럴 네트워크를 학습시키는 학습 데이터로 사용된다. 더 나아가 판독에 사용된 환자의 의료 영상도 본 개시의 의료 영상 판독 지원 시스템(100)에 사용되는 딥 뉴럴 네트워크의 학습 데이터로 사용되어 딥 뉴럴 네트워크의 판독 능력이 지속적으로 향상될 수 있다. 판독부(150)에 사용되는 인공 지능의 학습 방법에 대해서는 도 8에서 다시 설명한다. 또한 의료 영상 판독 지원 시스템(100)은 본 개시에서 설명하는 것을 제외하고는 도 1 및 도 2에 기재된 종래의 CAD 기반의 시스템과 실질적으로 동일하다. 예를 들어 의료 영상 판독 지원 시스템(100)은 컴퓨터 시스템으로 MPU(micro processing unit), CPU(central processing unit), GPU(graphic processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등과 같은 하드웨어와 특정 목적을 수행하는 소프트웨어 구성을 포함할 수 있다. 본 개시는 의료 영상의 종류에 제한이 없이 기재하였으나, 본 개시에 기재된 의료 영상 지원 판독 지원 시스템은 특히 흉부 의료 영상을 판독할 때 효과적인 것으로 확인되었다. The medical image reading support system 100 includes a medical image obtaining unit 110, a histogram matching unit 120, a segmentation unit 130, a spatial standardization unit 140, and a reading unit 150. The medical image acquisition unit 110 acquires a medical image of a patient that needs reading. The medical image acquisition unit 110 may directly obtain a medical image from a digital medical imaging apparatus such as an X-ray apparatus, a computed tomography (CT), or magnetic resonance imaging (MRI). Or by a medical image transmission system (PACS) from a server storing digital medical images taken by a digital medical imaging apparatus, or connected to an external storage device (eg FDD, HDD, CD drive, etc.) To obtain a medical image of the patient, but is not limited thereto. The histogram matching unit 120 matches intensity of the medical image of the patient obtained by the medical image acquisition unit 110. That is, the artificial intelligence can better read the medical image of the patient by matching the brightness of the patient's medical image with the standard brightness as a reference, which will be described in detail with reference to FIG. 4. The segmentation unit 130 segments the portion of the medical image whose brightness is standardized by the histogram matching unit 120 for reading. The method is described in detail with reference to FIG. 5. Spatial Nomalizaton 140 normalizes the size of the medical image segmented by the segmentation unit 130 to a predetermined size. A detailed method will be described with reference to FIG. 6. The reading unit 150 reads the medical image normalized in size by the spatial standardizing unit 140 by AI, and then prepares a reading and provides it to the doctor. In particular, by pre-processing the medical image by the histogram matching unit 120 and the spatial standardization unit 140, when the AI reads the medical image, the reading efficiency may be improved to increase the reading accuracy. The AI used for the reading unit 150 is preferably a deep neural network. Artificial neural deep neural networks also typically require learning to read medical images of patients. The data used to train deep neural networks is called training data. In the present disclosure, since the medical image of the patient in need of reading is subjected to a preprocessing process characterized by the histogram matching unit 120 and the spatial standardization unit 140, the deep neural used in the medical image reading support system 100 of the present disclosure. It is preferable that a plurality of medical images, which are learning data of a network, also undergo the same preprocessing process. For example, a plurality of medical images used as learning data are obtained by the medical image acquisition unit 110 and then the medical images are passed through the histogram matching unit 120, the segmentation unit 130, and the spatial standardization unit 140. After the preprocessing, the deep neural network of the reading unit 150 is used as training data. Furthermore, the medical image of the patient used for reading may also be used as learning data of the deep neural network used in the medical image reading support system 100 of the present disclosure, so that the reading ability of the deep neural network may be continuously improved. The artificial intelligence learning method used in the reading unit 150 will be described again with reference to FIG. 8. The medical image reading support system 100 is also substantially the same as the conventional CAD based system described in FIGS. 1 and 2 except as described in this disclosure. For example, the medical image reading support system 100 may be a computer system, a micro processing unit (MPU), a central processing unit (CPU), a graphic processing unit (GPU) or a tensor processing unit (TPU), a cache memory, It may include hardware such as a data bus and a software configuration for performing a specific purpose. Although the present disclosure has been described without limitation on the type of medical image, the medical image assisted reading support system described in the present disclosure has been found to be particularly effective when reading chest medical images.

도 4는 본 개시에 따른 히스토그램 매칭부를 설명하는 도면이다.4 is a diagram illustrating a histogram matching unit according to the present disclosure.

히스토그램 매칭부(120)는 의료 영상 획득부(110)에서 얻은 환자의 의료 영상 명도를 수정하여 인공 지능(AI)에 의한 판독 가능성을 향상시킨다. 이를 위해 히스토그램 매칭부(120)는 먼저 명도의 분포가 균일한 의료 영상을 히스토그램 매칭을 위한 표준 의료 영상으로 선정한다. 표준 의료 영상을 선정하기 위한 데이터는 딥 뉴럴 네트워크를 학습시키기 위한 학습 데이터를 사용할 수 있다. 히스토그램 매칭을 위한 표준 의료 영상을 선정하는 방법은 예를 들어 판독이 필요한 환자의 의료 영상이 흉부 X-ray 영상일 경우 딥 뉴럴 네트워크의 학습 데이터로 사용하기 위한 복수의 흉부 X-Ray에 대해서 다이콤 이미지 헤더를 사용하여 각각 흉부 X-Ray 영상의 명도 분포를 분석한다. 복수의 흉부 X-Ray 의료 영상은 제1 참고 의료 영상이라고 한다. 제1 참고 의료 영상은 판독이 필요한 환자의 의료 영상일 수 있으며, 또는 다른 환자의 의료 영상일 수도 있다. 이후 명도 분포가 10 내지 1,000의 구간을 많이 갖고 있는 흉부 X-Ray 영상들을 제1 참고 의료 영상으로부터 선택하고 이를 제2 참고 의료 영상이라 한다. 예를 들어 명도 분포가 10 내지 1,000 구간이 전체의 80% 이상인 것을 제2 참고 의료 영상으로 하는 것이 바람직하다. 제2 참고 의료 영상 각각에 대하여 명도 평균을 계산한다. 이후 제2 참고 의료 영상의 명도 평균을 합한 후 제2 참고 의료 영상 명도 평균의 평균을 구한다. 이후 제2 참고 의료 영상 중에서 제2 참고 의료 영상 명도 평균의 평균에 가장 가까운 명도 평균을 갖는 의료 영상을 히스토그램 매칭을 위한 표준 의료 영상으로 선정한다. 이와 같이 선정된 히스토그램 매칭을 위한 표준 의료 영상의 명도 히스토그램(200)을 보면 도 4(a)와 같이 밝고 어두운 영역이 고르게 퍼져 있는 것을 알 수 있다. 히스토그램(200)의 X축은 밝기를 나타내며 Y축은 해당 밝기를 갖는 픽셀(Pixel)의 수를 나타낸다. 히스토그램 매칭을 위한 표준 의료 영상을 선정한 이후에는 판독이 필요한 환자의 의료 영상의 명도 히스토그램을 구한다. 도 4(b)는 판독이 필요한 환자의 흉부 X-ray 의료 영상(210)과 판독이 필요한 환자의 흉부 X-ray 의료 영상(210)에 대한 명도 히스토그램(220)의 일 예를 보여준다. 판독이 필요한 환자의 흉부 X-ray 의료 영상(210)에 대한 명도 히스토그램(220)을 보면 밝고 어두운 영역이 고르지 않은 것을 알 수 있다. 이와 같이 밝고 어두운 영역이 고르지 않은 판독이 필요한 환자의 흉부 X-ray 의료 영상(210)에 대한 명도 히스토그램(220)을 히스토그램 매칭을 위한 표준 의료 영상의 명도 히스토그램(200)과 매칭하여 판독이 필요한 환자의 흉부 X-ray 의료 영상(210)에 대한 명도 히스토그램(220)을 표준 의료 영상의 명도 히스토그램(200)과 유사한 형태로 수정하여 밝고 어두운 영역이 고르게 퍼지도록 한다. 수정된 히스토그램에 따라 판독이 필요한 환자의 흉부 X-ray 의료 영상(210)의 명도가 수정되어 인공 지능(AI)의 판독 가능성을 향상시킬 수 있다. 판독이 필요한 환자의 흉부 X-ray 의료 영상(210)에 대한 명도 히스토그램(220)을 히스토그램 매칭을 위한 표준 의료 영상의 명도 히스토그램(200)과 매칭하여 판독이 필요한 환자의 흉부 X-ray 의료 영상(210)에 대한 명도 히스토그램(220)을 표준 의료 영상의 명도 히스토그램(200)과 유사한 형태로 수정하는 방법은 공지된 히스토그램 매칭 방법을 사용할 수 있다. 예를 들어 표준 의료 영상의 명도 히스토그램(200) 분포를 계산하고 계산된 표준 의료 영상의 명도 히스토그램(200) 분포를 기준으로 판독이 필요한 환자의 흉부 X-ray 의료 영상(210)에 대한 명도 히스토그램(220)의 분포를 계산하여 판독이 필요한 환자의 흉부 X-ray 의료 영상(210)에 대한 명도 히스토그램(220)을 표준 의료 영상의 명도 히스토그램(200)과 유사한 형태로 수정할 수 있다. The histogram matching unit 120 modifies the medical image brightness of the patient obtained by the medical image acquisition unit 110 to improve readability by artificial intelligence (AI). To this end, the histogram matching unit 120 first selects a medical image having a uniform distribution of brightness as a standard medical image for histogram matching. The data for selecting a standard medical image may use training data for training a deep neural network. The method of selecting a standard medical image for histogram matching is a method of dicoming a plurality of chest X-rays for use as training data of a deep neural network, for example, when a medical image of a patient to be read is a chest X-ray image. The image header is used to analyze the brightness distribution of each chest X-ray image. The plurality of chest X-ray medical images is referred to as a first reference medical image. The first reference medical image may be a medical image of a patient in need of reading, or may be a medical image of another patient. Afterwards, chest X-ray images having a brightness range of 10 to 1,000 are selected from the first reference medical image and are referred to as second reference medical images. For example, it is preferable that the second reference medical image has a brightness distribution of 10 to 1,000 sections of 80% or more. A brightness average is calculated for each of the second reference medical images. Thereafter, the brightness averages of the second reference medical images are summed, and then the average of the brightness averages of the second reference medical images are calculated. Thereafter, among the second reference medical images, the medical image having the brightness average closest to the average of the second reference medical image brightness averages is selected as the standard medical image for histogram matching. In the brightness histogram 200 of the standard medical image for matching the selected histogram, it can be seen that the bright and dark areas are evenly spread as shown in FIG. The X axis of the histogram 200 represents the brightness, and the Y axis represents the number of pixels having the corresponding brightness. After selecting the standard medical image for histogram matching, the brightness histogram of the medical image of the patient to be read is obtained. 4 (b) shows an example of a brightness histogram 220 of a chest X-ray medical image 210 of a patient who needs reading and a chest X-ray medical image 210 of a patient who needs reading. The brightness histogram 220 of the chest X-ray medical image 210 of the patient in need of reading indicates that the light and dark areas are uneven. As such, the brightness histogram 220 of the chest X-ray medical image 210 of the patient requiring uneven light and dark areas is matched with the brightness histogram 200 of the standard medical image for histogram matching. The brightness histogram 220 of the chest X-ray medical image 210 is modified to be similar to the brightness histogram 200 of the standard medical image so that the light and dark areas are spread evenly. According to the modified histogram, the brightness of the chest X-ray medical image 210 of the patient that needs to be read may be modified to improve the readability of artificial intelligence (AI). A chest histogram 220 of a patient's chest X-ray medical image 210 that needs to be read is matched with a brightness histogram 200 of a standard medical image for histogram matching, and thus a chest X-ray medical image of a patient who needs to read a A method of modifying the brightness histogram 220 for 210 in a form similar to the brightness histogram 200 of a standard medical image may use a known histogram matching method. For example, a brightness histogram for a chest X-ray medical image 210 of a patient who needs to calculate a brightness histogram 200 distribution of a standard medical image and read based on the calculated brightness histogram 200 distribution of a standard medical image. The brightness histogram 220 of the chest X-ray medical image 210 of the patient in need of reading may be modified to calculate the distribution of the data in a form similar to the brightness histogram 200 of the standard medical image.

도 5는 본 개시에 따른 세그멘테이션부를 설명하는 도면이다.5 is a diagram illustrating a segmentation unit according to the present disclosure.

세그멘테이션부(130)는 판독이 필요한 부분을 분할한다. 예를 들어 판독이 필요한 환자의 의료 영상인 흉부 X-ray 영상 중 특히 폐 영상에 대한 판독이 필요한 경우 폐 부분만을 흉부 X-ray 영상에서 분할한다. 본 개시에서는 예를 들어 인공 지능을 사용하여 학습된 U-net 인공지능을 사용하여 환자의 의료 영상인 흉부 X-ray 영상(300)으로부터 폐 부분(310)만을 분할하여 분할된 폐 세그멘테이션 영상(320)을 얻었다.Segmentation unit 130 divides the portion that needs to be read. For example, only the lungs are segmented from the chest X-ray image, especially when the chest X-ray image is a medical image of a patient who needs to read. In the present disclosure, for example, a lung segmentation image 320 obtained by dividing only the lung portion 310 from a chest X-ray image 300, which is a medical image of a patient, using U-net AI learned using artificial intelligence. )

도 6은 본 개시에 따른 공간 표준화부를 설명하는 도면이다.6 is a diagram illustrating a spatial standardization unit according to the present disclosure.

공간 표준화부(140)는 세그멘테이션부(130)에 의해 얻은 영상을 확장한다. 예를 들어 세그멘테이션이 되기 전 흉부 X-ray 의료 영상인 도 6(a)를 보면 실제 폐 영역은 어두운 부분(400)뿐 아니라 아래 밝은 부분(410)을 포함하는 경우가 다수이다. 그러나 세그멘테이션부(130)에 의해 분할된 의료 영상인 도 6(b)를 보면 어두운 부분(400)만을 폐 영역으로 분할한 것을 볼 수 있다. 공간 표준화부(140)는 세그멘테이션부(130)에 의해 폐를 세그멘테이션하여 계산된 상하좌우 좌표 및 Contour 함수를 사용하여 세그멘테이션부(130)에 의해 분할된 폐 영상의 상하좌우 좌표로부터 예를 들어 1.5배 정도 확장하여 도 6(c)와 같은 의료 영상을 얻는다. 도 6(c)와 도 6(a)와 비교하면 상하좌우 불필요한 부분이 삭제되었으며 도 6(b)와 비교하면 폐 영역이 확장되어 세그멘테이션부(130)에 의해 얻은 의료 영상보다 실제 폐 영역을 더 많이 포함하게 된다. 바람직하게는 이후 공간 표준화부(140)는 세그멘테이션부(130)에 의해 얻은 영상을 확장한 영상의 크기를 예를 들어 정사각형 형태의 일정한 크기로 만든다. 판독부(150)의 인공 지능인 딥 뉴럴 네트워크에 최적화된 크기이면서 폭과 높이가 동일한 크기가 되도록 한다. 일정한 크기는 최대한 실제 X-ray 영상 크기(도 6(a))와 유사하게 하는 것이 바람직하다. 실제 X-ray 영상보다 작은 사이즈로 변환을 하면 정보가 일부 누락되고 작은 병변에 대한 정확성이 낮아질 수 있기 때문이다.The spatial standardizer 140 expands the image obtained by the segmentation unit 130. For example, in FIG. 6 (a), which is a chest X-ray medical image before segmentation, the actual lung region often includes not only the dark portion 400 but also the bright portion 410 below. However, in FIG. 6B, which is a medical image divided by the segmentation unit 130, it can be seen that only the dark portion 400 is divided into lung regions. Spatial normalization unit 140 is, for example, 1.5 times from the up, down, left, and right coordinates calculated by segmenting the lungs by the segmentation unit 130 and up, down, left, and right coordinates of the lung image divided by the segmentation unit 130 using the Contour function. The image is expanded to obtain a medical image as shown in FIG. Compared to FIGS. 6 (c) and 6 (a), unnecessary portions of the top, bottom, left, and right sides have been deleted, and compared to FIG. 6 (b), the lung area is expanded, so that the actual lung area is larger than the medical image obtained by the segmentation unit 130. It will include a lot. Preferably, the spatial standardization unit 140 then makes the size of the image obtained by expanding the image obtained by the segmentation unit 130 to a constant size, for example, in a square shape. Optimized size for the deep neural network, which is the artificial intelligence of the reading unit 150, and the width and height to be the same size. It is desirable that the constant size be as close as possible to the actual X-ray image size (Fig. 6 (a)). Converting to a smaller size than the actual X-ray image can result in some missing information and less accurate lesions.

도 7은 본 개시에 따른 의료 영상 판독 지원 시스템을 사용한 방법의 일 예를 보여주는 흐름도이다.7 is a flowchart illustrating an example of a method using a medical image reading support system according to the present disclosure.

본 개시에 따른 흉부 의료 영상 판독 지원 시스템을 사용하는 방법은 먼저 의료 영상 획득부에 의해 환자의 의료 영상을 획득한다(S1). 획득한 의료 영상은 히스토그램 매칭부에 의해 명암을 조정한다(S2). 이후 세그멘테이션에 의해 명암비가 가공된 의료 영상으로부터 판독이 필요한 부분을 분할한다(S3). 예를 들어 도 5와 같이 흉부 X-ray 의료 영상으로부터 폐 영상을 분할할 수 있다. 본 개시를 적용한 결과 특히 흉부 의료 영상으로부터 폐 질환을 판독할 때 적용하는 경우 효과가 우수한 것으로 나타났다. 이후 공간 표준화부에 의해 분할한 의료 영상의 영역을 확장한 후 의료 영상의 크기를 조정한다(S4). 이후 히스토그램 매칭부 및 공간 표준화부에 의해 전 처리된 의료 영상을 판독부가 판독을 하고 판독문을 작성한다(S5). 특히 판독부는 인공 지능인 딥 뉴럴 네트워크에 의해 의료 영상을 판독한다. 이후 판독부에 의해 작성된 판독문을 보고 의사는 환자의 의료 영상으로부터 질환 여부를 확정 판독한다.In the method of using the chest medical image reading support system according to the present disclosure, first, a medical image of a patient is obtained by a medical image obtaining unit (S1). The acquired medical image is adjusted for contrast by the histogram matching unit (S2). Subsequently, the segment to be read is divided from the medical image processed by the contrast ratio by segmentation (S3). For example, as shown in FIG. 5, a lung image may be segmented from a chest X-ray medical image. The application of the present disclosure has been shown to be particularly effective when applied, particularly when reading lung disease from chest medical images. Thereafter, the area of the medical image divided by the spatial standardization unit is expanded, and then the size of the medical image is adjusted (S4). Thereafter, the reading unit reads the medical image preprocessed by the histogram matching unit and the spatial standardization unit and creates a reading (S5). In particular, the reading unit reads the medical image by the deep neural network which is artificial intelligence. The doctor then reads the reading made by the reading unit to determine whether the disease is determined from the medical image of the patient.

도 8은 본 개시에 따른 의료 영상 판독 지원 시스템을 사용한 방법의 또 다른 예를 보여주는 흐름도로서, 학습의 관점에서 기술되었다.8 is a flow chart showing another example of a method using the medical image reading support system according to the present disclosure, which has been described in terms of learning.

먼저 복수의 의료 영상을 준비한다(S10). 복수의 의료 영상은 2차원 흉부 X-ray 영상이거나, CT 이미지와 같은 3차원 의료 영상일 수 있다. 의료 영상은 사람에 제한되지 않으며, 개, 돼지와 같은 동물에 적용될 수 있음은 물론이다. 3차원 의료 영상의 경우에, 3차원 세그멘테이션 기술이 필요하며, 세그멘테이션 된 폐를 3차원 방향으로 확장하고 크기를 조절할 필요가 있다. First, a plurality of medical images are prepared (S10). The plurality of medical images may be two-dimensional chest X-ray images or three-dimensional medical images such as CT images. Medical imaging is not limited to humans, but can of course be applied to animals such as dogs and pigs. In the case of 3D medical imaging, a 3D segmentation technique is required, and the segmented lung needs to be expanded and sized in the 3D direction.

다음으로, 복수의 의료 영상에 대해 히스토그램 매칭을 행한다(S20). 바람직하게는 복수의 의료 영상에 대해 히스토그램 매칭을 행한다. 더욱 바람직하게는 도 4에 제시된 방식의 히스토그램 매칭 기법이 적용된다.. 이러한 기법(표준 의료 영상을 선정)을 적용함으로써, 이후 다른 의료 영상이 추가되더라도, 이미 선정된 표준 의료 영상을 기준으로, 영상을 처리할 수 있는 이점을 가지게 된다.Next, histogram matching is performed on the plurality of medical images (S20). Preferably, histogram matching is performed on the plurality of medical images. More preferably, the histogram matching technique of the method shown in Fig. 4 is applied. By applying this technique (selecting a standard medical image), even if another medical image is added later, the image is based on the already selected standard medical image. It will have the advantage of handling.

다음으로, 각각의 의료 영상에 대해 세그멘테이션을 행한다(S30). 이 세그멘테이션에는 FCN(Fully Convolutional Network), U-Net과 같은 공지의 딥 뉴럴 네트워크가 사용될 수 있다. 이 네트워크는 이미 학습된 것을 사용하거나, 위 복수의 의료 영상을 학습 데이터로 이용하여 학습될 수 있다. 바람직하게는 도 4에 제시된 히스토그램 매칭과, 도 5 및 도 6에 제시된 기법이 적용된 의료 영상을 학습 데이터로 하여 지도 학습될 수 있으며, 트랜스펴 러닝(Transfer Learining)이 이용될 수 있다. Next, segmentation is performed on each medical image (S30). For this segmentation, known deep neural networks such as Fully Convolutional Network (FCN) and U-Net can be used. The network may be learned using the already learned or using the plurality of medical images as learning data. Preferably, the histogram matching shown in FIG. 4 and the medical image to which the technique shown in FIGS. 5 and 6 are applied may be supervised and trained, and transfer learning may be used.

다음으로, 도 6에 제시된 밝은 부분(410)을 고려하여 원 의료 영상으로부터 이미지를 잘라낸다(S40). 이렇게 잘려진 각각의 이미지는 그 크기가 일정하지 않으므로(환자마다 폐의 크기가 다르므로), 일정한 규격으로 크기를 조정하는 것이 바람직하다. 복수의 잘려진 이미지들의 크기를 평균하여 크기를 조정할 수 있으나, 지속적으로 이미지가 추가될 수 있으므로, 하나의 규격을 정해서 이미지를 조정하는 것이 바람직하다. 세그멘테이션용 네트워크 자체가 도 6에 제시된 밝은 부분(410)을 직접 분할하는 형태로 학습될 수 있으나, 정확도의 측면에서 바람직하지는 않다.Next, the image is cut out from the original medical image in consideration of the bright part 410 shown in FIG. 6 (S40). Each of these cropped images is not constant in size (because the size of the lungs varies from patient to patient), so it is advisable to resize to a certain size. It is possible to adjust the size by averaging the sizes of the plurality of cropped images, but it is desirable to adjust the image by setting one standard since the image may be continuously added. The segmentation network itself may be learned in the form of directly dividing the bright portion 410 shown in FIG. 6, but is not desirable in terms of accuracy.

다음으로, 이렇게 전 처리된 복수의 의료 영상을 바탕으로 판독부를 학습시킨다(S45). 판독부는 Classification(악성 노듈의 존재 여부), Detection(노듈의 위치 및 크기 판단), Segmentation(노듈의 구체적인 위치, 크기, 형상 판단)과 같은 기능을 할 수 있으며, 그 기능에 따라, AlexNet, GoolgleNet, ResNet, FCN, U-Net, GAN가 같은 형태의 하나의 Deep Neural Network 내지는 이들의 조합으로 이루어질 수 있다. 판독부의 후단에는 Deep Neural Network(s)의 결과값을 도 9에 도시된 것과 같이 판독문의 형태에 제시하는 부분이 구비되며, 이러한 부분은 도 1에 제시된 기술 등에서 이미 공지된 것이다. 즉 도 9(a)에 표시된 폐 질환 부분(500)에 대해서 도 9(b)와 같은 형태의 판독문 내지 가판독문이 판독부에 의해 작성된다.Next, the reading unit is trained based on the plurality of pre-processed medical images (S45). The reader can function as Classification (existence of malicious nodule), Detection (determination of position and size of nodule), Segmentation (determination of specific position, size, shape of nodule), and depending on the function, AlexNet, GoolgleNet, ResNet, FCN, U-Net, GAN may be formed of one Deep Neural Network of the same type or a combination thereof. The rear part of the reading unit is provided with a part for presenting the result of the Deep Neural Network (s) in the form of a reading as shown in FIG. 9, which is already known in the technique shown in FIG. 1. That is, the reading unit or the read reading of the form shown in FIG. 9 (b) is created by the reading unit for the lung disease part 500 shown in FIG. 9 (a).

이렇게 학습된 판독 지원 시스템이 판독문 내지 가판독문의 작성에 이용된다(S50). 특정 환자의 의료 영상이 제공되면, 바람직하게는 단계(S20, S30, S40) 모두를 거친 다음, 판독부에 제공되고, 판독부에 의해 도 9에 제시된 판독문 내지는 가판독문이 작성된다. 정리하면, 바람직한 실시예로서, 본 개시는 (1) 전 처리용 네트워크의 학습 (2) 학습된 전 처리용 네트워크를 거친 복수의 의료 영상을 이용한 판독부 네트워크의 학습 (3) 특정 환자의 의료 영상을, 학습된 전 처리용 네크워크를 통해 전 처리 (4) 전 처리를 거친 특정 환자의 의료 영상을, 학습된 판독부를 통해 판독문 내지 가판독문 작성을 포함한다.The read support system thus learned is used for the preparation of the read or temporary read document (S50). If a medical image of a particular patient is provided, preferably through all of the steps (S20, S30, S40) and then provided to the reading unit, the reading unit or the read edition shown in FIG. 9 is prepared by the reading unit. In summary, as a preferred embodiment, the present disclosure provides (1) learning of a preprocessing network (2) learning of a reader network using a plurality of medical images that have passed through the learned preprocessing network (3) medical images of specific patients The medical image of the specific patient who has undergone the preprocessing (4) through the learned preprocessing network includes a readout or a readout reading through the learned readout.

이하 본 개시의 다양한 실시 형태에 대하여 설명한다.Various embodiments of the present disclosure will be described below.

(1) 흉부 의료 영상 판독을 지원하는 방법에 있어서, 의료 영상 획득부가 환자의 흉부 의료 영상을 획득하는 단계; 히스토그램 매칭부가 획득한 흉부 의료 영상의 명도를 조정하는 단계; 세그멘테이션부가 명도가 조정된 흉부 의료 영상에서 폐 부분만을 세그멘테이션하는 단계; 공간 표준화부가 세그멘테이션된 폐 부분을 표준화하는 단계; 그리고 판독부가 공간 표준화부에서 표준화된 의료 영상을 판독하는 단계;를 포함하는 흉부 의료 영상 판독을 지원하는 방법(1) a method for supporting chest medical image reading, the medical image obtaining unit acquiring a chest medical image of a patient; Adjusting brightness of a chest medical image obtained by a histogram matching unit; Segmenting the lungs in the chest medical image in which the segmentation unit is adjusted in brightness; Standardizing the segmented lung part by the spatial standardization unit; And a reading unit reading the normalized medical image by the spatial standardizing unit.

(2) 히스토그램 매칭부가 획득한 흉부 의료 영상의 명도를 조정하는 단계는(2) adjusting the brightness of the chest medical image obtained by the histogram matching unit

명도 분포가 균일한 흉부 의료 영상을 히스토그램 매칭을 위한 표준 의료 영상으로 선정하는 단계; 획득한 환자의 흉부 의료 영상의 명도 히스토그램을 구하는 단계; 획득한 환자의 흉부 의료 영상의 명도 히스토그램과 표준 의료 영상의 명도 히스토그램을 매칭하는 단계; 그리고 획득한 환자의 흉부 의료 영상의 명도 히스토그램을 표준 의료 영상의 명도 히스토그램을 기준으로 수정하는 단계;를 포함하는 흉부 의료 영상 판독을 지원하는 방법Selecting a chest medical image having a uniform brightness distribution as a standard medical image for histogram matching; Obtaining a brightness histogram of the acquired chest medical images of the patient; Matching the brightness histogram of the acquired chest medical image with the brightness histogram of the standard medical image; And correcting the brightness histogram of the acquired chest medical image of the patient based on the brightness histogram of the standard medical image.

(3) 명도의 분포가 균일한 의료 영상을 히스토그램 매칭을 위한 표준 의료 영상으로 선정하는 단계는 복수의 흉부 의료 영상인 복수의 제1 참고 의료 영상에 대한 명도 분포를 얻는 단계; 복수의 제1 참고 의료 영상 중 명도 분포가 10 내지 1,000 구간이 전체의 80%이 이상인 것을 복수의 제2 참고 의료 영상으로 선정하는 단계; 복수의 제2 참고 의료 영상에 대해 각각의 명도 평균을 계산하는 단계; 복수의 제2 참고 의료 영상 각각의 명도 평균을 합산한 후 복수의 제2 참고 의료 영상 각각의 명도 평균의 평균을 계산하는 단계; 그리고 복수의 제2 참고 의료 영상 중 제2 참고 의료 영상 각각의 명도 평균의 평균에 가장 가까운 명도 평균을 갖는 것을 히스토그램 매칭을 위한 표준 의료 영상으로 선정하는 단계;를 포함하는 흉부 의료 영상 판독을 지원하는 방법(3) selecting a medical image having a uniform distribution of brightness as a standard medical image for histogram matching may include obtaining brightness distributions for a plurality of first reference medical images that are a plurality of chest medical images; Selecting, as the plurality of second reference medical images, a brightness distribution of 10 to 1,000 sections of the plurality of first reference medical images being 80% or more of the total; Calculating respective brightness averages for the plurality of second reference medical images; Calculating an average of brightness averages of each of the plurality of second reference medical images after summing brightness averages of each of the plurality of second reference medical images; And selecting a standard medical image for histogram matching having the brightness average closest to the average of the brightness averages of each of the second reference medical images, from among the plurality of second reference medical images. Way

(4) 공간 표준화부가 세그멘테이션된 폐 부분을 표준화하는 단계는 세그멘테이션 된 폐 부분을 포함하여 확장한 의료 영상을 얻는 단계; 그리고 세그멘테이션 된 폐 부분을 포함하여 확장한 의료 영상의 크기를 미리 정해진 크기로 늘리거나 줄이는 단계;를 포함하는 흉부 의료 영상 판독을 지원하는 방법(4) the step of standardizing the segmented lung part by the spatial normalization unit may include obtaining an expanded medical image including the segmented lung part; And increasing or decreasing the size of the expanded medical image, including the segmented lung portion, to a predetermined size.

(5) 세그멘테이션 된 폐 부분을 포함하여 확장한 의료 영상을 얻는 단계는 폐 부분을 세그멘테이션할 때 계산된 상하좌우 좌표 및 Contour 함수를 사용하여 세그멘테이션 된 폐 부분을 포함하여 확장한 의료 영상을 얻는 흉부 의료 영상 판독을 지원하는 방법(5) Obtaining an extended medical image including the segmented lung part is performed by performing chest medical examination to obtain an extended medical image including the segmented lung part using the up-down, left-right coordinates and the Contour function calculated when segmenting the lung part. How to support image reading

(6) 판독부는 인공 지능(AI)에 의해 작동하는 흉부 의료 영상 판독을 지원하는 방법(6) how the readout supports chest medical image readings operated by artificial intelligence (AI)

(7) 인공 지능(AI)은 딥 뉴럴 네트워크에 의해 작동하는 흉부 의료 영상 판독을 지원하는 방법(7) How artificial intelligence (AI) supports chest medical image readings powered by deep neural networks

(8) 판독부의 딥 뉴럴 네트워크을 학습시키는 학습 데이터는 의료 영상 획득부가 복수의 흉부 의료 영상을 획득하는 단계; 히스토그램 매칭부가 획득한 복수의 흉부 의료 영상의 명도를 조정하는 단계; 세그멘테이션부가 명도가 조정된 복수의 흉부 의료 영상에서 폐 부분만을 세그멘테이션하는 단계; 그리고 공간 표준화부가 세그멘테이션된 폐 부분을 표준화하는 단계;를 거친 의료 영상을 학습 데이터로 사용하는 흉부 의료 영상 판독을 지원하는 방법(8) learning data for training the deep neural network of the reading unit includes: acquiring, by the medical image acquisition unit, a plurality of chest medical images; Adjusting brightness of a plurality of chest medical images obtained by a histogram matching unit; Segmenting only the lungs in the plurality of chest medical images of which the segmentation unit is adjusted in brightness; And standardizing the segmented lung part by the spatial standardization unit.

(9) 흉부 의료 영상 판독을 지원하는 시스템에 있어서, 환자의 흉부 의료 영상을 획득하는 의료 영상 획득부; 의료 영상 획득부에서 획득한 환자의 흉부 의료 영상의 명도를 매칭하는 히스토그램 매칭부; 명도가 매칭된 환자의 흉부 의료 영상에서 판독이 필요한 폐 부분을 세그멘테이션 하는 세그멘테이션부; 세그멘테이션 된 폐 부분을 표준화하는 공간 표준화부; 그리고, 표준화된 환자의 의료 영상을 판독하는 판독부;를 포함하는 흉부 의료 영상 판독 지원 시스템.(9) a system for supporting a chest medical image reading, the system comprising: a medical image obtaining unit obtaining a chest medical image of a patient; A histogram matching unit matching the brightness of the chest medical image of the patient acquired by the medical image obtaining unit; Segmentation unit for segmenting the lung portion that needs to be read in the chest medical image of the patient with matching brightness; A spatial standardization unit for standardizing segmented lung parts; And a readout unit configured to read standardized medical images of the patient.

(10) 세그멘테이션부 및 판독부 중 하나는 인공 지능(AI)에 의해 작동하는 흉부 의료 영상 판독 지원 시스템.(10) One of the segmentation unit and the reading unit is a chest medical image reading support system operated by artificial intelligence (AI).

본 개시에 따르면 인공지능인 딥 뉴럴 네트워크의 판독 정확성을 향상시킨 흉부 의료 영상 판독 지원 시스템을 얻을 수 있다.According to the present disclosure, it is possible to obtain a chest medical image reading support system that improves the reading accuracy of an artificial deep neural network.

의료 영상 판독 지원 시스템 : 10. 100Medical image reading support system: 10. 100

Claims (10)

흉부 의료 영상 판독을 지원하는 방법에 있어서,
의료 영상 획득부가 환자의 흉부 의료 영상을 획득하는 단계;
히스토그램 매칭부가 획득한 흉부 의료 영상의 명도를 조정하는 단계;
세그멘테이션부가 명도가 조정된 흉부 의료 영상에서 폐 부분만을 세그멘테이션하는 단계;
공간 표준화부가 세그멘테이션된 폐 부분을 표준화하는 단계; 그리고
판독부가 공간 표준화부에서 표준화된 의료 영상을 판독하는 단계;를 포함하는 흉부 의료 영상 판독을 지원하는 방법.
A method of supporting chest medical image reading,
Obtaining, by the medical image acquisition unit, a chest medical image of the patient;
Adjusting brightness of a chest medical image obtained by a histogram matching unit;
Segmenting the lungs in the chest medical image in which the segmentation unit is adjusted in brightness;
Standardizing the segmented lung part by the spatial standardization unit; And
And a reading unit reading the normalized medical image by the spatial standardizing unit.
청구항 1에 있어서,
히스토그램 매칭부가 획득한 흉부 의료 영상의 명도를 조정하는 단계는
명도 분포가 균일한 흉부 의료 영상을 히스토그램 매칭을 위한 표준 의료 영상으로 선정하는 단계;
획득한 환자의 흉부 의료 영상의 명도 히스토그램을 구하는 단계;
획득한 환자의 흉부 의료 영상의 명도 히스토그램과 표준 의료 영상의 명도 히스토그램을 매칭하는 단계; 그리고
획득한 환자의 흉부 의료 영상의 명도 히스토그램을 표준 의료 영상의 명도 히스토그램을 기준으로 수정하는 단계;를 포함하는 흉부 의료 영상 판독을 지원하는 방법.
The method according to claim 1,
Adjusting the brightness of the chest medical image obtained by the histogram matching unit
Selecting a chest medical image having a uniform brightness distribution as a standard medical image for histogram matching;
Obtaining a brightness histogram of the acquired chest medical images of the patient;
Matching the brightness histogram of the acquired chest medical image with the brightness histogram of the standard medical image; And
And correcting the brightness histogram of the acquired chest medical image based on the brightness histogram of the standard medical image.
청구항 2에 있어서,
명도의 분포가 균일한 흉부 의료 영상을 히스토그램 매칭을 위한 표준 의료 영상으로 선정하는 단계는
복수의 흉부 의료 영상인 복수의 제1 참고 의료 영상에 대한 명도 분포를 얻는 단계;
복수의 제1 참고 의료 영상 중 명도 분포가 10 내지 1,000 구간이 전체의 80%이 이상인 것을 복수의 제2 참고 의료 영상으로 선정하는 단계;
복수의 제2 참고 의료 영상에 대해 각각의 명도 평균을 계산하는 단계;
복수의 제2 참고 의료 영상 각각의 명도 평균을 합산한 후 복수의 제2 참고 의료 영상 각각의 명도 평균의 평균을 계산하는 단계; 그리고
복수의 제2 참고 의료 영상 중 제2 참고 의료 영상 각각의 명도 평균의 평균에 가장 가까운 명도 평균을 갖는 것을 히스토그램 매칭을 위한 표준 의료 영상으로 선정하는 단계;를 포함하는 흉부 의료 영상 판독을 지원하는 방법.
The method according to claim 2,
Selecting a chest medical image with a uniform brightness distribution as a standard medical image for histogram matching
Obtaining brightness distributions for a plurality of first reference medical images that are a plurality of chest medical images;
Selecting, as the plurality of second reference medical images, a brightness distribution of 10 to 1,000 sections of the plurality of first reference medical images being 80% or more of the total;
Calculating respective brightness averages for the plurality of second reference medical images;
Calculating an average of brightness averages of each of the plurality of second reference medical images after summing brightness averages of each of the plurality of second reference medical images; And
Selecting a standard medical image for histogram matching that has the brightness average closest to the average of the brightness averages of each of the second reference medical images among the plurality of second reference medical images; .
청구항 1에 있어서,
공간 표준화부가 세그멘테이션된 폐 부분을 표준화하는 단계는
세그멘테이션 된 폐 부분을 포함하여 확장한 의료 영상을 얻는 단계; 그리고
세그멘테이션 된 폐 부분을 포함하여 확장한 의료 영상의 크기를 미리 정해진 크기로 늘리거나 줄이는 단계;를 포함하는 흉부 의료 영상 판독을 지원하는 방법.
The method according to claim 1,
The spatial standardization standardizes the segmented lung part
Obtaining an expanded medical image including a segmented lung portion; And
Increasing or decreasing the size of the expanded medical image, including the segmented lung portion, to a predetermined size.
청구항 4에 있어서,
세그멘테이션 된 폐 부분을 포함하여 확장한 의료 영상을 얻는 단계는
폐 부분을 세그멘테이션할 때 계산된 상하좌우 좌표 및 Contour 함수를 사용하여 세그멘테이션 된 폐 부분을 포함하여 확장한 의료 영상을 얻는 흉부 의료 영상 판독을 지원하는 방법.
The method according to claim 4,
Obtaining extended medical images, including segmented lungs,
A method of supporting chest medical image reading that obtains an expanded medical image, including segmented lung portions, using calculated top, bottom, left and right coordinates and the Contour function when segmenting the lung.
청구항 1에 있어서,
판독부는 인공 지능(AI)에 의해 작동하는 흉부 의료 영상 판독을 지원하는 방법.
The method according to claim 1,
The reading unit supports a chest medical image reading operated by artificial intelligence (AI).
청구항 6에 있어서,
판독부의 인공 지능(AI)은 딥 뉴럴 네트워크에 의해 작동하는 흉부 의료 영상 판독을 지원하는 방법.
The method of claim 6,
Artificial intelligence (AI) in the reader to support chest medical image readings operated by deep neural networks.
청구항 7에 있어서,
판독부의 딥 뉴럴 네트워크를 학습시키기 위한 학습 데이터는
의료 영상 획득부가 복수의 흉부 의료 영상을 획득하는 단계;
히스토그램 매칭부가 획득한 복수의 흉부 의료 영상의 명도를 조정하는 단계;
세그멘테이션부가 명도가 조정된 복수의 흉부 의료 영상에서 폐 부분만을 세그멘테이션하는 단계; 그리고
공간 표준화부가 세그멘테이션된 폐 부분을 표준화하는 단계;를 거친 복수의 의료 영상인 흉부 의료 영상 판독을 지원하는 방법.
The method according to claim 7,
The training data for training the deep neural network of the reader
Obtaining, by the medical image obtaining unit, a plurality of chest medical images;
Adjusting brightness of a plurality of chest medical images obtained by a histogram matching unit;
Segmenting only the lungs in the plurality of chest medical images of which the segmentation unit is adjusted in brightness; And
And standardizing the segmented lung part by the spatial normalization unit. 3.
흉부 의료 영상 판독을 지원하는 시스템에 있어서,
환자의 흉부 의료 영상을 획득하는 의료 영상 획득부;
의료 영상 획득부에서 획득한 환자의 흉부 의료 영상의 명도를 매칭하는 히스토그램 매칭부;
명도가 매칭된 환자의 흉부 의료 영상에서 판독이 필요한 폐 부분을 세그멘테이션 하는 세그멘테이션부;
세그멘테이션 된 폐 부분을 표준화하는 공간 표준화부; 그리고,
표준화된 환자의 의료 영상을 판독하는 판독부;를 포함하는 흉부 의료 영상 판독 지원 시스템.
A system for supporting chest medical image reading,
A medical image acquisition unit obtaining a chest medical image of the patient;
A histogram matching unit matching the brightness of the chest medical image of the patient acquired by the medical image obtaining unit;
Segmentation unit for segmenting the lung portion that needs to be read in the chest medical image of the patient with matching brightness;
A spatial standardization unit for standardizing segmented lung parts; And,
And a readout for reading medical images of the standardized patient.
청구항 9에 있어서,
세그멘테이션부 및 판독부 중 하나는 인공 지능(AI)에 의해 작동하는 흉부 의료 영상 판독 지원 시스템.
The method according to claim 9,
One of the segmentation unit and the reading unit is a chest medical image reading support system operated by artificial intelligence (AI).
KR1020180009862A 2018-01-26 2018-01-26 System and method for assisting chest medical images reading Active KR102178803B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180009862A KR102178803B1 (en) 2018-01-26 2018-01-26 System and method for assisting chest medical images reading

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180009862A KR102178803B1 (en) 2018-01-26 2018-01-26 System and method for assisting chest medical images reading

Publications (2)

Publication Number Publication Date
KR20190090986A true KR20190090986A (en) 2019-08-05
KR102178803B1 KR102178803B1 (en) 2020-11-16

Family

ID=67615931

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180009862A Active KR102178803B1 (en) 2018-01-26 2018-01-26 System and method for assisting chest medical images reading

Country Status (1)

Country Link
KR (1) KR102178803B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102280902B1 (en) 2020-07-16 2021-07-26 주식회사 코어라인소프트 Apparatus and method for assisting chest medical images reading
KR20220032405A (en) * 2020-09-07 2022-03-15 주식회사 뷰노 Method to read chest image
KR20220094286A (en) * 2020-12-28 2022-07-06 주식회사 래디센 Method and system for real-time automatic X-ray Image reading for lung nodule based on artificial intelligence
KR20220134403A (en) * 2021-03-26 2022-10-05 한국과학기술원 Severity Quantication and Lesion Localization Method of Infectious Disease on CXR using Vision Transformer and Apparatus Therefor
US12056880B2 (en) 2020-08-03 2024-08-06 Korea Advanced Institute Of Science And Technology Method of classifying lesion of chest x-ray radiograph based on data normalization and local patch and apparatus thereof
US12380554B2 (en) 2020-09-14 2025-08-05 Vuno Inc. Method for detecting abnormal findings and generating interpretation text of medical image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101225482B1 (en) * 2012-02-15 2013-01-23 인텔 코오퍼레이션 Digital image processing method, apparatus, and computer-readable recording medium
JP2015154918A (en) * 2014-02-19 2015-08-27 三星電子株式会社Samsung Electronics Co.,Ltd. Lesion detection apparatus and method
US20150254842A1 (en) * 2012-09-13 2015-09-10 The Regents Of The University Of California System and method for automated detection of lung nodules in medical images
KR20160006404A (en) * 2014-07-09 2016-01-19 주식회사 인피니트헬스케어 Method and apparatus for controlling graphic user interface based on illumination

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101225482B1 (en) * 2012-02-15 2013-01-23 인텔 코오퍼레이션 Digital image processing method, apparatus, and computer-readable recording medium
US20150254842A1 (en) * 2012-09-13 2015-09-10 The Regents Of The University Of California System and method for automated detection of lung nodules in medical images
JP2015154918A (en) * 2014-02-19 2015-08-27 三星電子株式会社Samsung Electronics Co.,Ltd. Lesion detection apparatus and method
KR20160006404A (en) * 2014-07-09 2016-01-19 주식회사 인피니트헬스케어 Method and apparatus for controlling graphic user interface based on illumination

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102280902B1 (en) 2020-07-16 2021-07-26 주식회사 코어라인소프트 Apparatus and method for assisting chest medical images reading
WO2022014856A1 (en) 2020-07-16 2022-01-20 주식회사 코어라인소프트 Device and method for supporting chest medical image reading
KR20220009862A (en) 2020-07-16 2022-01-25 주식회사 코어라인소프트 Apparatus and method for assisting chest medical images reading
US12056880B2 (en) 2020-08-03 2024-08-06 Korea Advanced Institute Of Science And Technology Method of classifying lesion of chest x-ray radiograph based on data normalization and local patch and apparatus thereof
KR20220032405A (en) * 2020-09-07 2022-03-15 주식회사 뷰노 Method to read chest image
US12125197B2 (en) 2020-09-07 2024-10-22 Vuno Inc. Method to read chest image
US12380554B2 (en) 2020-09-14 2025-08-05 Vuno Inc. Method for detecting abnormal findings and generating interpretation text of medical image
KR20220094286A (en) * 2020-12-28 2022-07-06 주식회사 래디센 Method and system for real-time automatic X-ray Image reading for lung nodule based on artificial intelligence
WO2022145899A1 (en) * 2020-12-28 2022-07-07 주식회사 래디센 Artificial intelligence-based method and system for real-time automatic x-ray diagnosis of solitary pulmonary nodule
KR20220134403A (en) * 2021-03-26 2022-10-05 한국과학기술원 Severity Quantication and Lesion Localization Method of Infectious Disease on CXR using Vision Transformer and Apparatus Therefor

Also Published As

Publication number Publication date
KR102178803B1 (en) 2020-11-16

Similar Documents

Publication Publication Date Title
KR102178803B1 (en) System and method for assisting chest medical images reading
JP5893623B2 (en) Anomaly detection method and system in data set
US11423554B2 (en) Registering a two-dimensional image with a three-dimensional image
US8958614B2 (en) Image-based detection using hierarchical learning
US11468589B2 (en) Image processing apparatus, image processing method, and program
EP3355273B1 (en) Coarse orientation detection in image data
US20140241606A1 (en) Apparatus and method for lesion segmentation in medical image
JP7170000B2 (en) LEARNING SYSTEMS, METHODS AND PROGRAMS
US11244458B2 (en) Image processing apparatus, image processing method, and program
EP3758602A1 (en) Neural network classification of osteolysis and synovitis near metal implants
US20240386555A1 (en) Information processing apparatus, information processing method, and information processing program
CN115249279A (en) Medical image processing method, medical image processing device, computer equipment and storage medium
US11138736B2 (en) Information processing apparatus and information processing method
US10307124B2 (en) Image display device, method, and program for determining common regions in images
CN101208042A (en) Abnormal shadow candidate detection method and abnormal shadow candidate detection device
US9454814B2 (en) PACS viewer and a method for identifying patient orientation
US12354730B2 (en) Determining characteristics of muscle structures using artificial neural network
JP2025513773A (en) Automatic rib fracture detection from unfolded scan images
CN114648536A (en) Method and device for extracting vascular wall
KR102850232B1 (en) Osteopenia diagnosis method and apparatus based on X-ray image
US12567145B2 (en) Method and system for generating label of medical image
US12249111B2 (en) Information processing apparatus, information processing method, and information processing program
US20240331335A1 (en) Image processing apparatus, image processing method, and image processing program
US20240338941A1 (en) Image processing apparatus, and image processing method
US20240281986A1 (en) Image processing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18 Changes to party contact information recorded

Free format text: ST27 STATUS EVENT CODE: A-5-5-R10-R18-OTH-X000 (AS PROVIDED BY THE NATIONAL OFFICE)

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000