버그 찾아 삼만리

  • 홈
  • 태그
  • 미디어로그
  • 위치로그
  • 방명록

NLP language model 1

ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THAN GENERATORS

ELECTRA - GAN 과 유사하게 Generator와 Discriminator로 구성됨 - Generator : 원본 문장에서 일부 단어를 [MASK] 태그로 변환후 [MASK] 토크의 단어를 예측하여 다른 토큰으로 변환 하는 모델 - Discriminator : Generator가 생성한 문장의 각단어들의 토큰들이 치환(replaced)된 데이터인지 원본(original) 데이터인지 식별, FineTuning 시 Discriminator 사용 - Generator Loss function : 마스크 된 토큰을 특정토큰으로 치환시킬 확률 - Discriminator Loss function : 해당토큰이 치환된 토큰인지 아닌지 판별하는 Classification 확률 - Generator and Di..

논문 2021.12.21
이전
1
다음
더보기
프로필사진

버그 찾아 삼만리

Kookmin univ NLP Lab Master

  • 분류 전체보기 (20)
    • 프로그래밍 (12)
      • python (2)
      • JAVA (2)
      • C·C++ (0)
      • Web (0)
      • 알고리즘 (1)
      • AI·Tensorflow (4)
      • NLP (3)
      • 기타 (0)
    • SQL (0)
    • Database (0)
    • 정보처리기사 (2)
    • 논문 (5)

Tag

시계열 데이터 Output, pretrained model, lstm dense, 자연어처리 토큰화, NLP Feature 추출, NLP language model, NEURAL MACHINE TRANSLATIONBY JOINTLY LEARNING TO ALIGN AND TRANSLATE, Fine Tuning, keras, Tensorflow 시계열 레이어, 자연어처리 토크나이저, 자연어 Feature 추출, ngram, lstm many to many, NLP 토큰화, NLP, keras 시계열 레이어, TensorFlow, 정보처리기사, 토크나이저,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/09   »
일 월 화 수 목 금 토
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바