You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
[형민 제출] SATRN : Swin : ASTER = 3:5:3
swin이 3개 폴드만 돌린 거라서 편향된 것 같아 weight를 낮추기로 함.
[누리 제출] 동일한 weight(전부 1)에 decoding manager. 후처리만 추가
[준철 제출] 현재 최고 score에 decoding manager 추가. 후처리 없이
폴드별로 동일한 weight 분배
ASTER (f0: 3, f1: 3, f2: 2, f3: 2, f4: 2)
SATRN (f0: 3, f1: 3, f2: 2, f3: 2, f4: 2)
SWIN (f2: 2, f3: 2, f4: 2)
⇒ 실수로 마지막 제출은 SATRN 2개ㅋㅋㅋㅋ
1등 발표 내용
validation set 구상 - 준철 시각화 한 거 첨부하기
→ LB 점수랑 비슷해서 제출 횟수를 효율적으로 사용.
→ augmentation 실험은 제출 안 했음.
우리 팀만의 kick
soft voting ensemble, teacher forcing ratio 고찰, 인코더.디코더 lr 다르게 설정.
SWIN, EfficientASTER, EfficientSATRN
한 달이 더 주어진다면? 우린 아직 배가 고프다.
외부 데이터 활용, ensemble learning, knowledge distillation, BERT
초기 목표: 상용화 + 이미지→latex 사이트 이기기
네트워킹 데이 준비
시행착오 및 문제 해결방법 구체적으로 2~3개
맨 처음에 모델 학습 전략을 요약 및 도식화해서 로드맵 보여주기
aug(wandb 그래프) - 모델 아키텍처(인코더.디코더) - 후처리 전처리. CNN. 인코더. 디코더. 앙상블. 후처리
'이거 어디에 써요?' 질문에 대비 → 논문 인트로 읽기
현실 서비스에 적용할 수 있는 것들 생각해보기
아이패드(손글씨)로 수식 쓰면 latex으로 변환하는 게 현재 안 되나?? 알파벳, 숫자 등은 지금도 됨.
다양한 OCR 관련 산업에 도움이 될 수 있다고 스토리 텔링.
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
-
📌 오늘 제출 3회 남음
현재 최고 LB score 0.8573 ( 동일한 weight로 ensemble )
without decoding manager → LB 0.8559 (wer 0.0238)
with decoding manager → LB 0.8559 (wer 0.0233)
⇒ 살짝 하락
swin이 3개 폴드만 돌린 거라서 편향된 것 같아 weight를 낮추기로 함.
폴드별로 동일한 weight 분배
ASTER (f0: 3, f1: 3, f2: 2, f3: 2, f4: 2)
SATRN (f0: 3, f1: 3, f2: 2, f3: 2, f4: 2)
SWIN (f2: 2, f3: 2, f4: 2)
⇒ 실수로 마지막 제출은 SATRN 2개ㅋㅋㅋㅋ
1등 발표 내용
→ LB 점수랑 비슷해서 제출 횟수를 효율적으로 사용.
→ augmentation 실험은 제출 안 했음.
soft voting ensemble, teacher forcing ratio 고찰, 인코더.디코더 lr 다르게 설정.
SWIN, EfficientASTER, EfficientSATRN
외부 데이터 활용, ensemble learning, knowledge distillation, BERT
네트워킹 데이 준비
aug(wandb 그래프) - 모델 아키텍처(인코더.디코더) - 후처리
전처리. CNN. 인코더. 디코더. 앙상블. 후처리
현실 서비스에 적용할 수 있는 것들 생각해보기
아이패드(손글씨)로 수식 쓰면 latex으로 변환하는 게 현재 안 되나?? 알파벳, 숫자 등은 지금도 됨.
다양한 OCR 관련 산업에 도움이 될 수 있다고 스토리 텔링.
→ 데이터가 우리 task와 잘 맞지 않는 부분이 있다.
데모 페이지 만들 때 전체 데이터로 학습한 새턴 모델로??
https://github.com/thejungwon/boostcamp_project_ocr
DKT 9,10강 & 데일리미션 참고
⇒ 내 학위논문으로 테스트 해보기
Beta Was this translation helpful? Give feedback.
All reactions