본문 바로가기

쉬엄쉬엄블로그

검색하기
쉬엄쉬엄블로그
프로필사진 쉬엄쉬엄블로그

  • 분류 전체보기 (149)
    • 일상 및 잡다 (18)
    • 코딩 (8)
    • AI (6)
    • 부스트캠프 AI Tech 4기 (115)
Guestbook
Notice
Recent Posts
Recent Comments
Link
250x250
«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
Tags
  • dataset
  • KLUE
  • RNN
  • Self-attention
  • 데이터 시각화
  • N2N
  • Attention
  • pyTorch
  • AI 경진대회
  • matplotlib
  • word2vec
  • 2023 현대차·기아 CTO AI 경진대회
  • seaborn
  • 딥러닝
  • Data Viz
  • mrc
  • Ai
  • passage retrieval
  • Bart
  • 현대자동차
  • 데이터 구축
  • AI Math
  • Bert
  • Transformer
  • Optimization
  • GPT
  • 기아
  • ODQA
  • nlp
  • N21
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록self-supervised (1)

쉬엄쉬엄블로그

(NLP) Self-supervised Pre-training Models

이 색깔은 주석이라 무시하셔도 됩니다. Self-Supervised Pre-Training Models Transformer Recent Trends Transformer model and its self-attention block has become a general-purpose sequence(or set) encoder and decoder in recent NLP applications as well as in other areas. 트랜스포머 모델에서 제안된 self-attention block은 범용적인 sequence encoder, decoder로써 최근 자연어처리의 다양한 분야에서 좋은 성능을 내고 있고 심지어 다른 분야에서도 활발히 사용됨 Training deeply stacked ..

부스트캠프 AI Tech 4기 2023. 7. 11. 12:38
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바