- 질문 게시판입니다.
Date | 20/06/03 17:21:51 |
Name | 타키투스 |
Subject | 딥러닝 이론에 관한 질문 |
딥러닝에 대한 공부 겸 연구를 하고있는 컴공과 학부생인데요. 인공지능쪽으로 교류가 아예 없다보니 전문용어도 모르고 그래서 인터넷에서 이론을 찾기가 힘듭니다. 1. 단어를 의미로 분류(Word2Vec)하는게 아닌 발음 내지는 음소로 분류하는 방법에 대한 이론이 있는지 궁금합니다. 예를들면 아메리카노와 어메뤼카노는 기존 의미 분류에서 후자쪽은 인식이 불가능하지만 의미가 아니라 단어 자체의 유사성으로 분류하면 거의 비슷한 벡터로 나오겠죠. 알파벳 한글자씩 숫자로 변환해서 1차원 컨볼루션, 앙상블, 어텐션 등등 여러가지 조합해서 오토인코더 방식으로 훈련해봤는데 정확도가 상당히 낮았습니다. 이 이론이 있다면 인터넷 커뮤니티에서 난무하는 온갖 오타나 슬랭을 번역할수 있을거라 생각됩니다. 2. 이미지나 영상, 사운드, 텍스트 등의 자료나 개념을 일정한 N 크기의 벡터 또는 벡터 시퀸스로 변환한다고 했을때 이러한 벡터들의 유사성에 따라 쿼리가 가능한 매핑 이론이 있는지 궁금합니다. 예를들어 개(Va), 개의 꼬리(Vb), 개의 귀(Vc) 등등의 개념이 이미 벡터화된 상태라고 가정하고 이때 개의 사진을 오토인코더 등으로 벡터화(Vt) 했을때 Vt로 쿼리하면 매핑에 따라 Va, Vb, Vc가 임의로 순서대로 반환되는겁니다. 전문용어를 몰라서 전 이걸 개념매핑이라고 부르고 있기는 한데 이 이론과 Memory Aumented Neural Network를 잘 조합하면 사고가 가능한 신경망을 만들수 있을것 같아서 찾아보거나 고안해보고는 있습니다만 영 마땅히 아이디어가 떠오르지도 않고, 이 단계에서 이미 1~2년은 지난거 같아서 혹시 이론이 나온게 없나 싶어서 여쭤봅니다. 0
|
1. 알파벳 한 글자씩 하는 것은 character-level embedding이라 하고, 더 가서는 byte 단위 embedding 시도도 있습니다. 그 외에 다른 단위는 subword embedding으로 찾아보면 나올 것이라 보입니다.
이런 시도의 단점 중 큰 것은 문장을 generation할 때 정확한 단어를 generation하기 어렵다는 것입니다. word 단위는 문장이 이상할 지라도 단어들이 나오는데, 이건 단어가 아닌 것들이 막 튀어나오죠
2. 이건 무슨 뜻인지 정확히 이해를 못하였는데, 사진의 class를 분류해서 "개"로 분류되면 답을 "개", "개 꼬리", "개 귀"로 주는... 더 보기
이런 시도의 단점 중 큰 것은 문장을 generation할 때 정확한 단어를 generation하기 어렵다는 것입니다. word 단위는 문장이 이상할 지라도 단어들이 나오는데, 이건 단어가 아닌 것들이 막 튀어나오죠
2. 이건 무슨 뜻인지 정확히 이해를 못하였는데, 사진의 class를 분류해서 "개"로 분류되면 답을 "개", "개 꼬리", "개 귀"로 주는... 더 보기
1. 알파벳 한 글자씩 하는 것은 character-level embedding이라 하고, 더 가서는 byte 단위 embedding 시도도 있습니다. 그 외에 다른 단위는 subword embedding으로 찾아보면 나올 것이라 보입니다.
이런 시도의 단점 중 큰 것은 문장을 generation할 때 정확한 단어를 generation하기 어렵다는 것입니다. word 단위는 문장이 이상할 지라도 단어들이 나오는데, 이건 단어가 아닌 것들이 막 튀어나오죠
2. 이건 무슨 뜻인지 정확히 이해를 못하였는데, 사진의 class를 분류해서 "개"로 분류되면 답을 "개", "개 꼬리", "개 귀"로 주는 프로그램으로 이해했는데 맞나요? 맞다면 앞의 문제는 image classification 문제고 뒤는 word-embedding에서 유사 word를 찾는 문제같네요. 아니면 같은 label의 사진들의 embedding값을 묶어 label마다 대표 embedding값을 만들고 유사한 embedding값을 가지는 label을 찾아 반환해 줄 수도 있겠네요.
https://arxiv.org/pdf/1809.09924.pdf
이런게 참고 논문이 될 수도요..?
이런 시도의 단점 중 큰 것은 문장을 generation할 때 정확한 단어를 generation하기 어렵다는 것입니다. word 단위는 문장이 이상할 지라도 단어들이 나오는데, 이건 단어가 아닌 것들이 막 튀어나오죠
2. 이건 무슨 뜻인지 정확히 이해를 못하였는데, 사진의 class를 분류해서 "개"로 분류되면 답을 "개", "개 꼬리", "개 귀"로 주는 프로그램으로 이해했는데 맞나요? 맞다면 앞의 문제는 image classification 문제고 뒤는 word-embedding에서 유사 word를 찾는 문제같네요. 아니면 같은 label의 사진들의 embedding값을 묶어 label마다 대표 embedding값을 만들고 유사한 embedding값을 가지는 label을 찾아 반환해 줄 수도 있겠네요.
https://arxiv.org/pdf/1809.09924.pdf
이런게 참고 논문이 될 수도요..?
두 벡터 사이의 관계가 있다! 매핑이 되었다!를 뭐로 정의하신건지가 잘 개념이 안잡힙니다. 아니면 그 관계가 있다고 정의하는 방법을 찾으시려는건가요..?
두 벡터 혹은 공간 사이의 관계가 있다 없다를 찾으려면 similarity를 measure해서 높은 것들을 찾아야할 것 같습니다. 가장 단순한 것은 대표 벡터 둘 잡고 euclidean이나 cosine similarity겠네요. 아니면 WGAN같은 데서는 Wasserstein distance도 있겠고요.
아니면 embedding된 벡터들을 clustering해서 같은 cluster에 해당하는 것들을 찾는 방법..?
similarity/distance 측정할 것 아니면 사전에 연결관계를 나타낼 다른 데이터가 있어야하는데, 그걸 쓰시려는 것은 아닌 것 같은데 맞나요.
두 벡터 혹은 공간 사이의 관계가 있다 없다를 찾으려면 similarity를 measure해서 높은 것들을 찾아야할 것 같습니다. 가장 단순한 것은 대표 벡터 둘 잡고 euclidean이나 cosine similarity겠네요. 아니면 WGAN같은 데서는 Wasserstein distance도 있겠고요.
아니면 embedding된 벡터들을 clustering해서 같은 cluster에 해당하는 것들을 찾는 방법..?
similarity/distance 측정할 것 아니면 사전에 연결관계를 나타낼 다른 데이터가 있어야하는데, 그걸 쓰시려는 것은 아닌 것 같은데 맞나요.
1. 음절 음소 형태소 글자 등 더 작은 레벨로 임베딩 할 수 있습니다. 그걸 그대로 위로 올릴 수도 있고 워드 단위로 한 번 representation 하고 나서 올릴 수도 있습니다. 그치만 원하시는게 아메리카노와 어메뤼카노가 비슷한 벡터를 갖는 거라면 워드단위로도 충분히 할 수 있습니다. 데이터 내에서 비슷한 위치에서 비슷한 의미로 충분히 많이 쓰였다면요. 그리고 일단 word2vec 의 목적은 표현이지 분류가 아닙니다.
2. 쿼리한다- 가 무엇을 의미하는지 잘 모르겠습니다만... 이미지를 입력했을 때, 이미지의 각 부분... 더 보기
2. 쿼리한다- 가 무엇을 의미하는지 잘 모르겠습니다만... 이미지를 입력했을 때, 이미지의 각 부분... 더 보기
1. 음절 음소 형태소 글자 등 더 작은 레벨로 임베딩 할 수 있습니다. 그걸 그대로 위로 올릴 수도 있고 워드 단위로 한 번 representation 하고 나서 올릴 수도 있습니다. 그치만 원하시는게 아메리카노와 어메뤼카노가 비슷한 벡터를 갖는 거라면 워드단위로도 충분히 할 수 있습니다. 데이터 내에서 비슷한 위치에서 비슷한 의미로 충분히 많이 쓰였다면요. 그리고 일단 word2vec 의 목적은 표현이지 분류가 아닙니다.
2. 쿼리한다- 가 무엇을 의미하는지 잘 모르겠습니다만... 이미지를 입력했을 때, 이미지의 각 부분이 갖는 의미를 추출하여 자연어로 이미지를 설명하는 모델이 16년인가 17년에 이미 나왔습니다. (모델 이름이 기억이 안나네요) 말씀하신 것 처럼 인풋의 각 부분에 대해 어떤 것(의미) 인지 추출/인식하여 “나열이 아니라 문장으로 연결시키는” 게 cnn 유행하던 시절에 이미 나왔어요
2. 쿼리한다- 가 무엇을 의미하는지 잘 모르겠습니다만... 이미지를 입력했을 때, 이미지의 각 부분이 갖는 의미를 추출하여 자연어로 이미지를 설명하는 모델이 16년인가 17년에 이미 나왔습니다. (모델 이름이 기억이 안나네요) 말씀하신 것 처럼 인풋의 각 부분에 대해 어떤 것(의미) 인지 추출/인식하여 “나열이 아니라 문장으로 연결시키는” 게 cnn 유행하던 시절에 이미 나왔어요
https://storage.googleapis.com/pub-tools-public-publication-data/pdf/43274.pdf
이거였네요 15년
사람들이 야외 시장에서 쇼핑하고 있고 야채들이 늘어져 있다고 사진의 각 부분의 의미를 인식해서 연결할 수 있네요
이거였네요 15년
사람들이 야외 시장에서 쇼핑하고 있고 야채들이 늘어져 있다고 사진의 각 부분의 의미를 인식해서 연결할 수 있네요
1. 일단 생각나는 건 fasttext입니다.
https://lovit.github.io/nlp/representation/2018/10/22/fasttext_subword/
오타나 oov 대응에 강점이 있습니다.
비슷한 컨셉을 한국어에 적용한 것도 있습니다.
htt... 더 보기
https://lovit.github.io/nlp/representation/2018/10/22/fasttext_subword/
오타나 oov 대응에 강점이 있습니다.
비슷한 컨셉을 한국어에 적용한 것도 있습니다.
htt... 더 보기
1. 일단 생각나는 건 fasttext입니다.
https://lovit.github.io/nlp/representation/2018/10/22/fasttext_subword/
오타나 oov 대응에 강점이 있습니다.
비슷한 컨셉을 한국어에 적용한 것도 있습니다.
https://arxiv.org/abs/1708.01766
하지만 이것들은 단어 표현을 좀 더 잘 한다는 것이지, 오타나 슬랭을 번역한다는 목표를 달성하기 위해서는 문제를 해결할 수 있는 전체 네트워크 구조를 설계하셔야 합니다. 위에 제가 올려드린 것들이 그 과정에서 도움을 줄 수는 있겠지만 저것들이 문제를 직접 해결해 주는 건 아닙니다.
2. multimodal object들을 vector화한 후에 vector 간 유사도,상관도 등을 계산하는 건 neural network의 일반적 특성이라고 봐도 됩니다. 제가 알고 있는 거의 모든 딥러닝 기반 네트워크에서 말씀하신 철학에 근거해서 문제들을 해결합니다. 굳이 생각나는 것 하나만 말씀드리면 siamese network가 있습니다만 이게 딱히 특별한 구조라고 생각하지는 않습니다.
https://www.researchgate.net/figure/Siamese-network-for-embedding-the-feature-maps-into-a-constant-vector_fig2_328376369
위 링크 그림이 생각하시는 모양과 비슷한건지 모르겠네요.
어떤 방식으로든 사고가 가능한 신경망을 만드시는데 성공하셨다면 꼭 공유해 주시면 감사하겠습니다. 제 일생 숙원이거든요ㅋ
https://lovit.github.io/nlp/representation/2018/10/22/fasttext_subword/
오타나 oov 대응에 강점이 있습니다.
비슷한 컨셉을 한국어에 적용한 것도 있습니다.
https://arxiv.org/abs/1708.01766
하지만 이것들은 단어 표현을 좀 더 잘 한다는 것이지, 오타나 슬랭을 번역한다는 목표를 달성하기 위해서는 문제를 해결할 수 있는 전체 네트워크 구조를 설계하셔야 합니다. 위에 제가 올려드린 것들이 그 과정에서 도움을 줄 수는 있겠지만 저것들이 문제를 직접 해결해 주는 건 아닙니다.
2. multimodal object들을 vector화한 후에 vector 간 유사도,상관도 등을 계산하는 건 neural network의 일반적 특성이라고 봐도 됩니다. 제가 알고 있는 거의 모든 딥러닝 기반 네트워크에서 말씀하신 철학에 근거해서 문제들을 해결합니다. 굳이 생각나는 것 하나만 말씀드리면 siamese network가 있습니다만 이게 딱히 특별한 구조라고 생각하지는 않습니다.
https://www.researchgate.net/figure/Siamese-network-for-embedding-the-feature-maps-into-a-constant-vector_fig2_328376369
위 링크 그림이 생각하시는 모양과 비슷한건지 모르겠네요.
어떤 방식으로든 사고가 가능한 신경망을 만드시는데 성공하셨다면 꼭 공유해 주시면 감사하겠습니다. 제 일생 숙원이거든요ㅋ
목록 |
|