본문 바로가기 메뉴 바로가기

CodeAngie

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

CodeAngie

검색하기 폼
  • 전체보기 (162)
    • Study (148)
      • Algorithm (8)
      • Coding Test (50)
      • Java (5)
      • FastAPI (2)
      • Docker (8)
      • FastCampus (42)
      • Codetree (9)
      • Ect (23)
    • ML (9)
      • Transformer (5)
      • RecSys (0)
      • Ect (4)

Positional Encoding (1)
[딥러닝 / PyTorch] Transformer 구현 (2) Embedding : Positional Encoding

Embedding Transformer에서 사용되는 Embedding은 Input Embedding과 Output Embedding이 있으며, 이들과 더해지는 Positional Encoding이 있다. Input과 Output Embedding은 torch에서 제공하는 nn.Embedding을 사용하였으며, Positional Encoding은 논문에서 제시하는 수식을 따라 Positional Encoding class를 구현하였다. 1. Positional Encoding Positional Encoding은 시퀀스의 순서 (단어의 위치 정보) 를 알려주는 역할을 한다. Input과 Output Embedding이 입력될 때 Positional Encoding 정보가 더해져 Encoder와 Decod..

ML/Transformer 2023. 1. 22.
이전 1 다음
이전 다음
«   2025/12   »
일 월 화 수 목 금 토
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31
TAG
  • Django
  • lis
  • DP
  • python
  • pytorch
  • 코딩테스트
  • 최소신장트리
  • disjoint set
  • kruskal
  • greedy
  • COLAB
  • 분리집합
  • 구현
  • boj
  • 그리디
  • 알고리즘
  • BFS
  • java
  • docker
  • 백준
  • 누적합
  • 프로그래머스
  • 코드트리
  • 오블완
  • MySQL
  • 트랜스포머
  • 파이썬
  • 티스토리챌린지
  • dfs
  • Transformer
more
링크

Blog is powered by Tistory / Designed by Tistory

티스토리툴바