본문 바로가기

쉬엄쉬엄블로그

검색하기
쉬엄쉬엄블로그
프로필사진 쉬엄쉬엄블로그

  • 분류 전체보기 (149)
    • 일상 및 잡다 (18)
    • 코딩 (8)
    • AI (6)
    • 부스트캠프 AI Tech 4기 (115)
Guestbook
Notice
Recent Posts
Recent Comments
Link
250x250
«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
Tags
  • GPT
  • Data Viz
  • word2vec
  • 기아
  • Self-attention
  • RNN
  • 딥러닝
  • Optimization
  • AI Math
  • Transformer
  • N21
  • 데이터 구축
  • KLUE
  • nlp
  • Ai
  • AI 경진대회
  • 현대자동차
  • dataset
  • passage retrieval
  • 2023 현대차·기아 CTO AI 경진대회
  • N2N
  • seaborn
  • Bert
  • pyTorch
  • 데이터 시각화
  • mrc
  • Attention
  • matplotlib
  • ODQA
  • Bart
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록QKV (1)

쉬엄쉬엄블로그

(딥러닝) Transformer

이 색깔은 주석이라 무시하셔도 됩니다. Sequential Model What makes sequential modeling a hard problem to handle? 중간에 어떤 단어가 빠지거나 순서가 뒤바뀌는 단어가 있으면 모델링하기 어렵게 됨 Transformer Transformer is the first sequence transduction model based entirely on attention. Transformer는 전적으로 attention에 기초한 최초의 시퀀스 변환 모델이다. From a bird’s-eye view, this is what the Transformer does for machine translation tasks. 대략적인 관점에서, 아래 그림은 Transf..

부스트캠프 AI Tech 4기 2023. 6. 2. 13:23
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바