반응형
Conceptual Modeling Conference
1월 17일, IEEE BigComp 내 Conceptual Modeling Workshop에 참여하여 논문을 발표하였다.
주제는 Transformer Networks for Trajectory Classification이다.
주로 Trajectory Analysis는 자연어처리에 속하기 때문에 LSTM을 사용한다. 하지만 LSTM은 입력 시퀀스의 길이가 길어지게 되면 encoder에서 decoder로 정보를 전달하는 과정에서 정보의 손실(병목현상)이 발생하게 된다. 이러한 LSTM의 문제점을 보완하기 위해 등장한 Transformer는 attention mechanism을 이용한다는 특징이 있다. 이러한 Transformer의 특징을 활용하여 Trajectory Classification에 적용하였다.
https://sites.google.com/view/concept2022/
https://ieeexplore.ieee.org/abstract/document/9736500
느낀 점
1. 논문 자체에도 부족한 점들이 있기 때문에 이를 좀더 보완해서 저널에 제출한다. 다른 dataset을 이용해서 검증을 해야 하는 작업을 해야한다.
2. 좀 더 큰 대회나 컨퍼런스에도 참여하고 싶다는 생각이 들었다. 이번에는 코로나로 인해 비대면으로 진행했지만, 다음에는 많은 사람들이 보는 앞에서 내가 연구한 프로젝트 발표에 대한 필요성을 느낀다.
728x90
반응형
'🖊 공대생 글쓰기 🖊 > 슬기로운 공대생활' 카테고리의 다른 글
[GDG Meet] Machine Learning Meetup (0) | 2022.12.29 |
---|---|
[연구일지] 2023년 학부연구생 연구 기록일지 (0) | 2022.04.10 |
[학부연구생 일지] 11월 10일 세미나 summary (0) | 2021.11.12 |
[학부연구생 일지] 10월 29일 세미나 summary (0) | 2021.10.30 |
[프로젝트] Dacon 인공지능 챌린지 참여 후기 (2) | 2021.08.27 |