본문 바로가기

Data49

[논문 요약] EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks 논문 링크 : EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks We present EDA: easy data augmentation techniques for boosting performance on text classification tasks. EDA consists of four simple but powerful operations: synonym replacement, random insertion, random swap, and random deletion. On five text classificati arxiv.org 코드 링크 : GitHub - jasonwei20/ed.. 2022. 11. 17.
Segmentation fault (core dumped) pytorch 또는 pytorch_lightning 사용할 때, gpu 사용 시에, Segmentation fault (core dumped) 오류가 뜰 때가 있다. 원인은 torch version과 torchvision version이 호환되지 않아서 이고 이 경우에는 torch version을 먼저 확인해주는 것이 좋다. 위와 같이 torch version이 cuda 또는 gpu를 호환하는 게 확인됐다면 torchvision 에서 같은 version의 cuda를 호환하지 않을 가능성이 있다. (만약, torch version이 cuda를 호환하지 않는다면 torch를 재설치해야 한다.) 그렇다면 기존의 torchvision을 pip uninstall torchvision 명령어를 통해 삭제하고 아래 .. 2022. 11. 1.
DL/ML Definition & Description DL abstract 딥러닝 모델 학습은 모델 출력과 정답 사이의 오차(error)를 최소화하는 방향을 구하고 이 방향에 맞춰 모델 전체의 파라미터(parameter)들을 업데이트하는 과정입니다. 이때 오차를 손실(loss), 오차를 최소화하는 방향을 그래디언트(gradient)라고 합니다. 오차를 최소화하는 과정을 최적화(optimization)라고 합니다. 회귀분석에서 손실함수로 사용되는 -노름은 예측 오차의 분산을 가장 최소화하는 방향으로 학습을 유도합니다. 분류문제에서 사용되는 교차엔트로피(cross-entropy)는 모델 예측의 불확실성을 최소화하는 방향으로 학습을 유도합니다. 데이터가 특정 확률 분포를 따른다고 선험적으로(apriori) 가정한 후 그 분포를 결정하는 모수(parameter)를.. 2022. 10. 25.
[논문 같이 읽기] BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding 논문 링크 : BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding We introduce a new language representation model called BERT, which stands for Bidirectional Encoder Representations from Transformers. Unlike recent language representation models, BERT is designed to pre-train deep bidirectional representations from unla arxiv.org Wikidocs 링크 : 02) 버트(Bidirectional Encoder.. 2022. 10. 22.
[논문 같이 읽기] Attention Is All You Need 논문 링크 : Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new arxiv.org Jay Alammar 논문 해설(모델 구조 및 작동 원리 with Animation) : The Illustrated Transformer Discussions: Hacker .. 2022. 10. 12.
[Definition] Word Embedding이란? Embedding : 어떤 위상(位相) 공간에서 다른 위상 공간으로의 동상 사상(同相寫像) 위상 : 어떤 사물이 다른 사물과의 관계 속에서 가지는 위치나 상태 동상 : 물리 서로 다른 파동들 사이에 위상 차이가 없어서 골과 골, 마루와 마루의 위치가 같은 상태 사상 : (물리) 물체에서 나온 빛이 거울에 반사 또는 굴절된 다음에 모여서 생기는 상(像) (수학) 어떤 집합의 임의의 원소가 다른 집합의 하나의 원소에 대응할 때, 그 두 집합 간의 대응 관계 -> 한 위치나 상태에서 다른 위치나 상태로의 1대1 대응 Word embedding (위키피디아) word embedding is a term used for the representation of words for text analysis, typic.. 2022. 10. 6.
[논문 같이 읽기] Distributed Representations of Words and Phrases and their Compositionality 논문 링크 : Distributed Representations of Words and Phrases and their Compositionality The recently introduced continuous Skip-gram model is an efficient method for learning high-quality distributed vector representations that capture a large number of precise syntactic and semantic word relationships. In this paper we present several extens arxiv.org 자료 링크 : - 모델의 구조 및 동작에 대한 설명이 디테일하게 잘 되어 있음 - w.. 2022. 10. 5.
[논문 같이 읽기] Sequence to Sequence Learning with Neural Networks 논문 링크 : Sequence to Sequence Learning with Neural Networks Deep Neural Networks (DNNs) are powerful models that have achieved excellent performance on difficult learning tasks. Although DNNs work well whenever large labeled training sets are available, they cannot be used to map sequences to sequences. In this pap arxiv.org 참고 자료 링크 : 1) 시퀀스-투-시퀀스(Sequence-to-Sequence, seq2seq) 이번 실습은 케라스 함수형 AP.. 2022. 9. 29.
[논문 같이 읽기] Efficient Estimation of Word Representations in Vector Space 논문 링크 : Efficient Estimation of Word Representations in Vector Space We propose two novel model architectures for computing continuous vector representations of words from very large data sets. The quality of these representations is measured in a word similarity task, and the results are compared to the previously best per arxiv.org 참고 자료 링크 : 02) 워드투벡터(Word2Vec) 앞서 원-핫 벡터는 단어 벡터 간 유의미한 유사도를 계산.. 2022. 9. 29.
[Vs Code] conda 가상 환경 변경 안 될 때 Vs code 프로그램에서 위의 보기와 같이 conda activate (가상환경명) 명령어로 가상 환경을 변경해주려 함에도 잘 안 될 때가 있다. 그 문제는 사실 Terminal의 기본 설정이 powershell로 되어있기 때문이었고 위와 같이 Command Prompt로 Terminal을 열어준다음 Conda activate (가상환경명) 명령어로 가상환경을 변경해주면 잘 작동하는 것을 확인할 수 있다. 2022. 9. 26.
Vue 머스태시(mustache) 랜더링 안될 때 Vue 교재나 한국 가이드에 따라 hello world 예제를 하는 중 Vue 머스태시 부분(sTitle)의 랜더링이 안되는 문제가 발생했다. 결론은 Vue 버젼이 2에서 3으로 업그레이드 됐기 때문이고 교재는 2버젼을 기반으로 작성되어 있었기 때문이었다. script 부분 vue를 불러오는 곳에 vue 버젼을 vue@2와 같이 명시해주면 문제는 해결된다. 2022. 7. 19.
re - 정규식 연산 re — 정규식 연산 — Python 3.10.4 문서 re — 정규식 연산 소스 코드: Lib/re.py 이 모듈은 Perl에 있는 것과 유사한 정규식 일치 연산을 제공합니다. 패턴과 검색 할 문자열은 모두 유니코드 문자열(str)과 8비트 문자열(bytes)이 될 수 있습니 docs.python.org re — Regular expression operations — Python 3.10.4 documentation re — Regular expression operations Source code: Lib/re.py This module provides regular expression matching operations similar to those found in Perl. Both patter.. 2022. 4. 22.
반응형