오늘 한 일
- 데이터 증강하며 모델 돌려보기
- 근데 데이터 증강이 잘 안되고 있었던 것 같기도 하다…
- 홍 모 캠퍼님이 데이터 증강해서 돌린 거랑 내가 해서 돌린 거랑 결과가 크게 차이났다. (내가 더 안좋았다.)
- 그래서 지금 다시 돌리는 중이다.
- mdeberta 모델이 한국어 전용이 아니라서 정답이 깔끔하지 못한 것 같았다.
- ex. 조사(가, 이, 의 등)가 붙어있는 경우
- 그래서 그걸 mecab 라이브러리로 제거하는 작업을 했다.
- 그리고 오랜만에 아이괜(아이즈원 이대로 괜찮은가)를 했다.
- 아주 건설적인 시간이었다. 왜 우리 프로젝트가 이렇게 되어버렸는가에 대한 논의를 했다.
- 일단 PM의 중요성을 깨달았다.
- 가면 갈수록 복잡해지는 이 거대한 프로젝트를 책임지고 단순하게 만들기 위한 노력을 쏟는 사람이 필요할 것 같다. (ex. sequence diagram 등)
- 그리고 주석이 너무 없어서 알기 힘들다.
- docstring을 반드시 써야 할 것 같다.
- 그리고 클래스를 만들어서 모듈화를 시키는 게 중요하다고 느꼈다.
- 또 데드라인이 없었다.
- 일정 기간만큼 해보고 이 정도 성능이 안나오면 포기해야겠 다와 같은 지표가 필요하지 않았나 생각한다.
- 결과적으로는 협업이 잘 되지 않았던 것 같다.
- 하나가 되는 순간 모두가 주목한다고 했지만, 결과적으로는 하나가 되지 못한 게 아닐까…
- 6명이 그냥 각각 서로 다른 목표를 위해서 프로젝트를 진행하고, 결과적인 리더보드 향상이라는 커다란 목표는 등한시했던 것 같다.
다음에 할 일
- Wrap-up 레포트
- 최후의 제출
- 지금 돌리고 있는 모델 성능이 꽤 나와서 새로 돌리고 있는 retriever랑 붙혀서 해보면 좋은 결과를 얻을 수 있지 않을까 하는 기대가 있다.