Business Strategy
이민예 2019-08-13
프로젝트 목표
패치형 심전도 측정기기에 경량 모델 탑재 후 동작 여부를 확인할 수 있어야 한다 (~20.02.28)
패치형 심전도 측정기기에 딥러닝 모델을 이식하기 위해서, 다음을 통해 경량화가 이루어져야 한다.
심전도 판별 인공지능 알고리즘 모델 경량화
모델 연산, 사이즈 최소화 ( MobileNet, SqueezeNet ) -> 메모리 제약 조건 해결
모델 실행 속도 최대화 ( Android Neural Networks API / Cython ) -> 서비스 반응 속도 해결
탑재 가능 형태로 배포 ( .tflite / .so )
궁금한 점
프로젝트 연구 동향
프로젝트 개발 기기
[1] 손목시계형 심전도 측정 기기 (IoT Device)
Business Strategy
사용자의 특별한 의식 행위 없이 심전도 측정
비정상 심전도에 대한 실시간 판별
Development for Business Strategy
전원이 켜짐과 동시에 측정
Bluetooth Low Energy (BLE) 연결을 활용 심전도 데이터 송신
[2] 측정된 심전도 저장 및 열람이 가능한 모바일 어플리케이션 (Android/IOS)
Business Strategy
비정상 심전도에 대한 실시간 판별
심전도 데이터 확인
Development for Business Strategy
전송된 심전도를 기반으로 한 경량화 알고리즘 실행
전송된 심전도 디비 적재 및 시각화
Development workflow : 전송된 심전도를 기반으로 한 경량화 알고리즘 실행
모바일 어플리케이션에 경량화 알고리즘을 실행하기 위해서 다음을 수행하여야함:
TensorFlow 모델 개발
텐서플로우의 경량화된 추상화 라이브러리인
tf-slim
라이브러리를 사용하면 성능이 검증된 다양한 CNN 모델들을 (VGGNet, InceptionNet, ResNet, MobileNet) 을 쉽게 사용가능하다. TensorFlow 모델 개발 후 훈련된 TensorFlow model 을 가져온다.TensorFlow Lite 모델 변환
TensorFlow Lite 최적화 컨버터( TensorFlow Lite converter )는 Tensorflow 그래프를 Tensorflow Lite 그래프로 변환한다. 즉, TensorFlow Lite FlatBuffer file (.tflite) 을 생성한다. 이 새로운 모델 파일 형태를 클라이언트 기기에 탑재가능하다.
모바일 어플리케이션에서 딥러닝 모델 실행
TensorFlow Lite 해석기 ( TensorFlow Lite interpreter ) 는 변환된 tflite 모델을 각 플랫폼의 커널(HW<->SW) 에서 사용할 수 있도록 번역하는 API 로 NNAPI 를 호출함.
Firebase ML Tooklit 을 사용하여 Firebase 에 모델을 배포하고, 앱 내 예측을 실행한다.
모델 최적화
Model Optimization Toolkit 양자화를 사용하여 기존 신경망의 부동 소수점 수를 줄여 모델의 연산량과 용량을 대폭 줄이어, 정확성을 증가시킨다.
Key Point: 텐서플로우 라이트 바이너리 사이즈는 모든 연산자가 연결되어 있을 때도, 300KB 보다 작다. 또한, InceptionV3와 MobileNet 을 사용한다면 200KB 보다 작다.
[3] 심전도 분석 결과 열람 및 진단 정보 저장용 PC/Web 기반 소프트웨어 (WEB)
Business Strategy
사용자가 지정한 의료진만 해당 환자의 데이터 열람 기능
Development for Business Strategy
Firebase 에 (Key: 환자 ID - Value: 의료진 ID) 쌍의 데이터베이스 설계 및 인증 절차 구현
Last updated