ML

ML

  • 분류 전체보기 (10)
    • GDSC_yonsei (1)
    • ML session (3)
    • Reinforcement Learning (5)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

ML

컨텐츠 검색

태그

resnet BGD ML Attention is all you need Ricahrd S. Sutton Monte Carlo Batch Gradient Descent ubuntu 22.10 DataStructure Cliff Problem Sarsa Zero-shot Transfer BartoSutton reinforcement learning dataloader pretrained model cuDNN imagenet Q-Learning Richard S. Sutton

최근글

댓글

공지사항

아카이브

Attention is all you need(1)

  • Transformer(Attention is all you need)

    Autoregressive LM(GPT) vs Autoencoding LM(BERT) Autoregressive LM: Causal Language Model Autoencoding LM: Masked Language Model Transformer Architecture Tokenizing vs Embedding vs Encoding Tokenizing: process which converts text to token idx Embedding: process which converts Tokenized Words to Vectors Encoding: process which converts embedded Vectors to Sentence Matrix Positional Encoding Positi..

    2022.11.17
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.