4_딥러닝의 역사와 선형대수
20190911 이민예
딥러닝의 역사
1950년 Turing Test (인공지능을 평가하는 법)
1956년 첫 컨퍼런스 개최
1958년 퍼셉트론
1969년 민스키가 퍼셉트론이 과장되었다고 주장함
1973년 AI, 딥러닝의 겨울 (편미분이 어려움)
1974년 propagation wpdks
1979년 저널
1980년 ICML (*인공지능 유명 학회 3가지 -> ICML/ICRL/NIPS)
1987년 AI, 두번째 겨울 (LISP Crisis : 인공지능 언어 자체의 문제 및 하드웨어 이슈)
1987년 UCI Repository
1987년 NIPS 학회
1993 년 R 출범
1997년 LSTM
1998년 SVM, NN / CNN 제안
1999년 NVIDA GPU
2004년 자율주행
자율주행의 원조는 고대 산공 한민용 교수님, IDEA가 있으면 특허 또는 논문을 내라
학회 기업세션 2가지
재고 process mining
MRP (Material Requirement Planning)
항상 재고가 이슈가 됨, 목적은 비용을 낮추고, 생산시간을 낮춘다.
인건비가 감소하고 일자리가 줄어들면 사회적 이슈가 된다.
재고를 관리하는 것은 기계에선 쉽지만, 서비스직에서는 어렵다.
예를 들면 병원에 가서 우린 접수하고, 기다리며, 대기한다.
이러한 프로세스 즉 transaction을 로그 파일로 남기어 분석을 한다.
FINE REPORT
SAP 는 유명한 ERP회사 중 하나이다.
ERP 는 MIS 경영정보시스템의 전사적자원관리로 자재관리, 생산관리, 재고 관리가 있다.
정부는 4차 산업혁명에 대비해서, 스마트팩토리에 투자하고, 스마트팩토리의 완전한 이상향은 자동화에서 무인화이다.
미래에는 기계가 인간을 이길수 있을까?
시냇가에 다리와 큰 대교는 스케일이 다를 뿐이지 같은 테스크이다. 오목이 적은 규칙을 가지고 있다면, 바둑이 많은 규칙을 가지고 있는 것처럼 말이다. 즉 아무리 복잡한 것이라도 수학적 알고리즘 상 스케일이 커질뿐이고 기본적인 것은 똑같은 미분을 사용하는 알고리즘이다.
인공지능이 스스로 생각하는 것은 불가능하지 않은가..현재까지는 수학적인 확률게임일뿐이다.
선형대수
고급 선형 대수들이 등장한다.
Decomposition / Eigen / Entropy
1) 목적함수를 정의하라
항상 목적이 있어야 한다. 목적이 없는 경우는 없다.
2) 최적화
값을 찾는 최적화 알고리즘을 적용하라
3) 해를 찾기 위해 알고리즘을 찾는다.
4) 이를 인간이 디자인한다.
Linear Algebra
데이터를 feature vector 로 표현한다.
10차원의 벡터는 10차원의 feature vector 이다.
Data Matrix 란 행(n)은 샘플의 갯수이고, 열(p)는 피터의 갯수이다.
벡터는 항상 컬럼으로 표시한다.
1.3 - Reshaping arrays
Two common numpy functions used in deep learning are np.shape and np.reshape().
X.shape is used to get the shape (dimension) of a matrix/vector X.
X.reshape(...) is used to reshape X into some other dimension.
For example, in computer science, an image is represented by a 3D array of shape (length, height, depth = 3). However, when you read an image as the input of an algorithm you convert it to a vector of shape (lengthheight3, 1). In other words, you "unroll", or reshape, the 3D array into a 1D vector.
Last updated