dohyeon

  • 홈
  • 태그
  • 방명록
DOHYEON

attention mechanism 1

(작성중)[Transformer] Attention Is All You Need

출처 : Attention is All you Need (neurips.cc)  2016년 Attention Mechanism(1409.0473 (arxiv.org))의 등장은 RNN 계통의 모델들이 갖는 장기 의존성 문제를 해결하는 데에 있어 초석이 되었다. 그리고 2017년에는 Backpropagation을 사용하지 않고 Attention Mechansim만을 활용하여 시퀀스 데이터를 처리할 수 있는, 당시 최고의 성능을 가진 모델 Transformer가 등장하였고, 이는 AI 업계를 크게 뒤흔들어 놓았다(현재는 Mamba와 같은 더욱 성능이 좋은 모델에 대한 최신 논문도 나오고 있다). 우리가 많이 사용하고 있는 'GPT' 또한 그 의미 자체가 General Pre-trained Transforme..

[Fundamentals]/[Fundamentals] 논문 2024.08.28
이전
1
다음
더보기
프로필사진

dohyeon

음향, 음성, 인공지능 공부합니다.

  • 분류 전체보기 (10)
    • [Audio & Speech Fundamental.. (5)
    • [Sound Event Detection] (1)
      • DCASE2023 (0)
      • DCASE2024 (0)
      • DCASE ~2023 (1)
    • [Speech Enhancement] (1)
    • [Fundamentals] (2)
      • [Fundamentals] 논문 (2)
      • [Fundamentals] 코드리뷰 (0)
    • [기타] (1)
      • XAI (1)
    • [Cloud Computing] (0)
      • AWS (0)

Tag

polyphonic sed, 대리분석, psds, 멜스펙트로그램, mel-scale, 평가지표, MFCC, Unlabeled Data, mel-spectrogram, dcase, mean teacher, semi-supervised, 전처리, 반지도학습, psd-roc, semi-supervised learning, XAI, 설명가능한인공지능, mel spectrogram, attention mechanism,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

Github Linkedin

Copyright © Kakao Corp. All rights reserved.

티스토리툴바