[실험] Transformer-DST 논문 정리 #56
JAEWOOSUN
started this conversation in
Experiments
Replies: 0 comments
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
Transformer-DST 논문 리뷰
Description: Transformer-DST 논문 리뷰
시작일: 2021년 5월 11일
실험자: 재우 선
제안자: 재우 선
진행상황: 진행중
카테고리: Paper Review
문제 정의
성능 높은 모델들에 대한 리뷰
해결 아이디어
논문 : https://arxiv.org/abs/2010.14061
진행 상황
1. Key Idea
즉, Single BERT가 Encoder와 Decoder 모두에서 work
→ 이렇게 하면 prediction objective와 value generation objective가 BERT 하나만 optimize하게 됨
2. Input
[Zeng et al., arXiv 2020]
여기서 는 domain, 는 slot, 는 value를 나타냄
만약, 아무 정보도 없을시 로 나타내고, 는 NULL
3. Overview
[Zeng et al., arXiv 2020]
4. Encoder
[Zeng et al., arXiv 2020]
4-1) Encoder Input
4-2) Multi-head self-attention
4-3) Encoder Output
4-4) Encoder Objective
5. Decoder (Slot Value Generation)
[Zeng et al., arXiv 2020]
5-1) Decoder Input
5-2) Left-to-right self-attention
5-3) Decoder Objective
결과
Reference
논문 : https://arxiv.org/abs/2010.14061
Beta Was this translation helpful? Give feedback.
All reactions