본문 바로가기

쉬엄쉬엄블로그

검색하기
쉬엄쉬엄블로그
프로필사진 쉬엄쉬엄블로그

  • 분류 전체보기 (149)
    • 일상 및 잡다 (18)
    • 코딩 (8)
    • AI (6)
    • 부스트캠프 AI Tech 4기 (115)
Guestbook
Notice
Recent Posts
Recent Comments
Link
250x250
«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
Tags
  • N2N
  • mrc
  • 2023 현대차·기아 CTO AI 경진대회
  • word2vec
  • 현대자동차
  • Self-attention
  • N21
  • AI Math
  • pyTorch
  • seaborn
  • Attention
  • passage retrieval
  • ODQA
  • 데이터 구축
  • KLUE
  • Transformer
  • dataset
  • RNN
  • GPT
  • Optimization
  • Data Viz
  • 딥러닝
  • Bart
  • 데이터 시각화
  • AI 경진대회
  • nlp
  • matplotlib
  • Bert
  • Ai
  • 기아
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록XLNet (1)

쉬엄쉬엄블로그

(KLUE) 자연어처리 연구

이 색깔은 주석이라 무시하셔도 됩니다. 한국어 언어 모델 학습 및 다중 과제 튜닝 Transformer와 multi-modal 연구 BERT 이후의 LM XLNet Relative positional encoding 방식 적용 (Transformer-XL) sequence의 max length 길이 제한 문제를 해결하기 위한 방법 Positional encoding → token간 관계성을 표현하기 위함 BERT처럼 0, 1, 2, 3 … 으로 표현하는 것이 아니라, 현재 token의 위치 대비 0번째, 1번째, 2번째, … 상대적 거리 표현법을 사용 Sequence 길이에 제한이 없어짐 Permutation langauge modeling mask token을 없앰 순열 조합을 통해 순서를 모두 섞고 ..

부스트캠프 AI Tech 4기 2023. 8. 23. 13:53
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바