A Hybrid Deep Learning Model for Recognizing Actions of Distracted Drivers
Data Collection
- 7 classes:
eating,drinking,manipulating dashboard controls,watching a phone screen,talking on a phone,talking with passengers,grooming
- SFDDD dataset과 AUC dataset은 관련 연구에서 가장 자주 사용되는 데이터셋
- 동일한 비디오에서 추출된 이미지들은 거의 동일한 장면을 포함하고 있음
- 타임스탬프 정보나 시퀀스 정보가 없음
→ 이러한 이유로 데이터셋을 제작함
- 30fps로 비디오를 수집, 각 비디오는 3초 길이로 조정, 각 행동 시퀀스의 길이는 90 프레임
Methodology
| Module1 | 인간 신체 자세 추정 모듈(the module of human body poses estimation) |
| Module2 | 데이터 처리 및 특징 구성 모듈(data processing and feature construction) |
| Module3 | 키프레임 시퀀스 추출 모듈(keyframe sequences extraction) |
| Module4 | 행동 인식 모듈(action recognition) |
| Module1 | - OpenPose 알고리즘 선택, 사람의 관절 위치를 탐지하는 기법 - 각 관절 포인트의 데이터 = 직교 좌표계(x축 값, y축 값), 신뢰도 - OpenPose는 여러가지 학습 모델을 지원하는데, 그 중 COCO 모델을 사용하면 18개의 관절 포인트를 출력함 |
| Module2 | - 데이터 처리, 불필요한 데이터 필터링, 결측치 처리, 결측 관절 보완 방법 등의 정보가 있음 |
| ㅤ | ㅤ |