Business Strategy

이민예 2019-08-13

프로젝트 목표

패치형 심전도 측정기기에 경량 모델 탑재 후 동작 여부를 확인할 수 있어야 한다 (~20.02.28)

패치형 심전도 측정기기에 딥러닝 모델을 이식하기 위해서, 다음을 통해 경량화가 이루어져야 한다.

심전도 판별 인공지능 알고리즘 모델 경량화

  • 모델 연산, 사이즈 최소화 ( MobileNet, SqueezeNet ) -> 메모리 제약 조건 해결

  • 모델 실행 속도 최대화 ( Android Neural Networks API / Cython ) -> 서비스 반응 속도 해결

  • 탑재 가능 형태로 배포 ( .tflite / .so )

궁금한 점

프로젝트 연구 동향

프로젝트 개발 기기

[1] 손목시계형 심전도 측정 기기 (IoT Device)

Business Strategy

  • 사용자의 특별한 의식 행위 없이 심전도 측정

  • 비정상 심전도에 대한 실시간 판별

Development for Business Strategy

  • 전원이 켜짐과 동시에 측정

  • Bluetooth Low Energy (BLE) 연결을 활용 심전도 데이터 송신

[2] 측정된 심전도 저장 및 열람이 가능한 모바일 어플리케이션 (Android/IOS)

Business Strategy

  • 비정상 심전도에 대한 실시간 판별

  • 심전도 데이터 확인

Development for Business Strategy

  • 전송된 심전도를 기반으로 한 경량화 알고리즘 실행

  • 전송된 심전도 디비 적재 및 시각화

Development workflow : 전송된 심전도를 기반으로 한 경량화 알고리즘 실행

모바일 어플리케이션에 경량화 알고리즘을 실행하기 위해서 다음을 수행하여야함:

  1. TensorFlow 모델 개발

    텐서플로우의 경량화된 추상화 라이브러리인 tf-slim 라이브러리를 사용하면 성능이 검증된 다양한 CNN 모델들을 (VGGNet, InceptionNet, ResNet, MobileNet) 을 쉽게 사용가능하다. TensorFlow 모델 개발 후 훈련된 TensorFlow model 을 가져온다.

  2. TensorFlow Lite 모델 변환

    TensorFlow Lite 최적화 컨버터( TensorFlow Lite converter )는 Tensorflow 그래프를 Tensorflow Lite 그래프로 변환한다. 즉, TensorFlow Lite FlatBuffer file (.tflite) 을 생성한다. 이 새로운 모델 파일 형태를 클라이언트 기기에 탑재가능하다.

  3. 모바일 어플리케이션에서 딥러닝 모델 실행

    1. TensorFlow Lite 해석기 ( TensorFlow Lite interpreter ) 는 변환된 tflite 모델을 각 플랫폼의 커널(HW<->SW) 에서 사용할 수 있도록 번역하는 API 로 NNAPI 를 호출함.

    2. Firebase ML Tooklit 을 사용하여 Firebase 에 모델을 배포하고, 앱 내 예측을 실행한다.

  4. 모델 최적화

    Model Optimization Toolkit 양자화를 사용하여 기존 신경망의 부동 소수점 수를 줄여 모델의 연산량과 용량을 대폭 줄이어, 정확성을 증가시킨다.

Key Point: 텐서플로우 라이트 바이너리 사이즈는 모든 연산자가 연결되어 있을 때도, 300KB 보다 작다. 또한, InceptionV3와 MobileNet 을 사용한다면 200KB 보다 작다.

[3] 심전도 분석 결과 열람 및 진단 정보 저장용 PC/Web 기반 소프트웨어 (WEB)

Business Strategy

  • 사용자가 지정한 의료진만 해당 환자의 데이터 열람 기능

Development for Business Strategy

  • Firebase 에 (Key: 환자 ID - Value: 의료진 ID) 쌍의 데이터베이스 설계 및 인증 절차 구현

Last updated