- 회원들이 추천해주신 좋은 글들을 따로 모아놓는 공간입니다.
- 추천글은 매주 자문단의 투표로 선정됩니다.
Date 15/11/05 18:02:05
Name   Azurespace
Subject   엥? 딥러닝 그거 바보 아니냐?

참고: http://arxiv.org/pdf/1312.6199v4.pdf


지금까지 사물 인식에 사용되는 대부분의 방법론들은 모두 동일한 기반을 두고 있습니다. 바로 사물을 구성하는 특징을 추출해낸 다음,  "이러한 특징을 얼마만큼 지닌 물체가 있는데, 우리가 아는 물체 중에서 가장 가까운 물체는 뭐가 있을까?" 라는 질문에 대한 답을 구하는 것입니다.


딥 러닝이 등장하기 이전의 방법론들 또한 그랬고, 딥 러닝 또한 그렇습니다. 다만 딥 러닝은 이미지의 국소적인 특징을 추출하여 더 큰 특징을 조합해내는 능력을 가지고 있을 뿐이죠.


잘 만들어진 모델은 물체의 웬만한 특징들을 잘 추출해냅니다. 당연히 그러니까 인식 정확도가 높겠죠? 그런데 문제는 아무리 신경망을 거대하게 잘 만든다고 하더라도, 어떤 사물이 가지고 있는 특징을 모두 추출해내어 이용하는 것은 불가능하다는 것입니다. 이건 마치 0과 1 사이의 모든 수를 나열하려고 하는 것과 비슷한 행위가 될 것입니다. 어떤 feature set을 뽑아내도 거기에 속하지 않는 다른 feature를 만들어내기란 어렵지 않을 것이기 때문이죠. 


그런데 딥 러닝이 이미지로부터 추출해내는 feature는 고작해야 수백개 정도라고 봤을 때... 이미지에서 오직 딥 러닝 네트워크가 추출해내는 feature만을 제거하거나, 원하는 양만큼만 남긴다면 어떻게 될까요?



각각의 이미지에서 왼쪽 그림과 오른쪽 그림을 내용적으로 다른(conceptually different) 그림이라고 생각할 사람은 존재하지 않을 겁니다. 가운데 회색 배경의 그림은 왼쪽과 오른쪽 이미지의 차이를 나타내는 것입니다. 좌우측은 명백히 같은 대상에 대한 사진이죠. 그러나 딥 러닝 네트워크의 관점에서 볼 때는 그렇지 않습니다. 네트워크의 입장에서 오른쪽 이미지들은 모두 Struthio camelus, 즉 낙타로... 아니, 타조로 보입니다. 이처럼 네트워크에게 실제와 전혀 다른 결과를 내놓도록 하는 이미지를 Adversarial Example이라고 정의하고 있습니다.


Wyoming 대학교의 한 AI 연구실에서는 위 연구결과를 보고 재미있다고 생각했던 것 같습니다. 원래 이 연구실에서는 유전 알고리즘(Genetic Algorithm)과 같은 진화적 알고리즘을 이용하여 로봇에 지능을 부여하는 연구를 하던 곳인데요.


"이런거 우리 전문이잖아? 한번 Adversarial example을 만드는 알고리즘을 만들어 볼까?"


http://www.evolvingai.org/files/DNNsEasilyFooled_cvpr15.pdf


이 사람들의 원래 목적은 저 위에 나온 이미지처럼, 기존 이미지를 거의 고치지 않았지만 정반대의 결과가 나오는 이미지를 만들어내는 것이었습니다.


해서 적용한 다목적 진화 알고리즘을 진짜진짜 간략하게 설명하면.



  1. 갖고 있는 이미지들을 네트워크에 넣어본다

  2. 선택, 교차, 변이 등 유전 연산을 적용한다.

  3. 원하는 결과에 가까운 이미지들을 다음 세대에 남긴다


정도로 나타낼 수 있습니다. 뭐 GA 자체도 파고들면 여러가지로 복잡한 기법들이 많고, 논문에서도 자세하게 설명하지 않고 있고요.


근데 이 알고리즘은 예상치 못한 결과를 내놓습니다. 원본 그림과 별로 비슷하지 않은데, 그렇다고 네트워크의 예상 결과와도 들어맞지 않는 이미지들을 내놓은 거죠.



달리 말해서 실제 사물과 별로 닮지 않은 패턴이나 그림으로도 딥 러닝 네트워크를 속일 수 있다는 것입니다. 그리고 어떤 네트워크라도 비슷한 방법을 통해서 속일 수 있을 것이라는 전망과 함께요. 더불어서, 한 네트워크를 속이는 데 성공한 이미지는 다른 구조의 네트워크도 속일 수 있을 가능성이 높다고 합니다.


개인적으로는 두 번째로 소개한 연구가 더 큰 파급효과를 가지지 않을까 생각합니다. 첫 번째 연구에서는 딥 네트워크를 속일 수 있다는 것을 증명했지만, 한편으로는 원래 이미지를 조작해서 만들어낸 이미지에 대한 결과죠. 아무런 수정 없는 이미지들에 대해서만이라도 제대로 동작할 수 있다면, 딥 러닝을 별 문제없이 현실에 적용해도 괜찮습니다. 달리는 자동차에 달린 카메라는 feature를 조작하지 않고 네트워크에 보낼 테니까요.


그러나 실제 사물과 관계없는 어떤 문양이나 패턴을 이용해서 네트워크를 속일 수가 있다면, 이건 사람이 마음먹기에 따라서는 못된 짓도 얼마든지 할 수 있습니다. 무인 자동차들이 상용화된 후에, 컴퓨터에게만 인간으로 보이는 어떤 패턴을 도색한 차량이 난폭운전을 하고 다닌다면 어떻게 될까요?


심지어 어떤 구조의 네트워크가 사용되었는지 모른다 하더라도, 다른 방법으로 우회해서 악용은 가능할 것입니다. 저에게도 몇 가지 가능한 방법이 떠오르네요.


그런데 딥 러닝만의 문제도 아니에요. 위에서 말했다시피 기존 방법이라고 피해갈 수 있는 문제가 아닙니다.


연구자들에게 주어진 숙제라고 할 수 있겠습니다.



* 수박이두통에게보린님에 의해서 자유 게시판으로부터 게시물 복사되었습니다 (2015-11-16 21:22)
* 관리사유 :



8


    컴퓨터를 위한 착시현상인 셈이네요.
    레지엔
    의료 영상 해석에서도 비슷한 얘기가 있었는데... 사람은 직관적으로 아무 문제없이 제끼고 보는 background noise를 패턴으로 인식해버리는 경우가 있습니다. 결국 컴퓨터 보조 진단기구는 데이터 구조화를 좀 덜 해보자는 인센티브가 있어야 하는데 이대로 쓰면 어차피 그대로 믿을 순 없으니 사람 보라고 구조화 한 번, 컴퓨터 잘 보라고 또 한 번... 노동 강도만 올라가는 상황이죠 당장은(..)
    Azurespace
    근데 뭐 의료분야는 환자가 악의적으로 자기 장기를 달리 배치할 수는 없으므로(...) 단순히 generalization problem이라고 볼 수 있죠. 이건 모델 만드는 놈들에게 옛다 카운터이그젬플! 던져주고 똑바로 못해?! 큰소리치면 고쳐지는 수준의 문제라고 볼 수 있는데요. 더군다나 전문지식을 갖춘 의사가 재확인을 하니까요. 언젠가는 쓸만한 수준으로 발전할 것이라 기대할 수 있는건데...

    근데 그럴 수 없는, 일상에 적용되어야 할 네트워크를 속일 수 있다는 것은, 그리고 근본적으로 해결이 안 될 수도 있다는 것은 큰 문제가 아닐 수 없습니다. 학계에선 이거 어쩔지...
    레지엔
    그럴 거라고 기대했지만 아닐 수도 있다는 의견이 계속 제시되고 있습니다. 이게 궁극적인 질문 두 가지에 대한 문제인데, \'영상 정보의 재현성이 엄밀하게 확립되는 프로토콜인가\', \'영상 이미지의 normal/abnormal에 대한 해석이 기계적 환원이 가능한가\'에서 진짜로 재평가의 시점이 온거죠. 실제로 하다보면 프로토콜대로 찍었지만 결과물은 좀 애매한 케이스도 많고, 오류난 영상이 찍히는 경우도 드물지 않습니다. 이 이미지가 제대로 찍힌 것인가 아닌가(=재촬영을 해야하는가/감안하고 해석할 수 있는가/이미지는 글렀지만 해석은 ... 더 보기
    그럴 거라고 기대했지만 아닐 수도 있다는 의견이 계속 제시되고 있습니다. 이게 궁극적인 질문 두 가지에 대한 문제인데, \'영상 정보의 재현성이 엄밀하게 확립되는 프로토콜인가\', \'영상 이미지의 normal/abnormal에 대한 해석이 기계적 환원이 가능한가\'에서 진짜로 재평가의 시점이 온거죠. 실제로 하다보면 프로토콜대로 찍었지만 결과물은 좀 애매한 케이스도 많고, 오류난 영상이 찍히는 경우도 드물지 않습니다. 이 이미지가 제대로 찍힌 것인가 아닌가(=재촬영을 해야하는가/감안하고 해석할 수 있는가/이미지는 글렀지만 해석은 정상적인 방식대로 해도 되는가)가 사실 판독의 기본인데, 이 전제 자체를 피드백하기가 상당히... 애매합니다. 아직까지 controversy가 있는 얘기지만, 과연 영상의학과 전문의의 판독은 얼마나 재현성이 있는가 같은 부분도 사실 공격이 거세진 부분이 적잖이 있고...
    그리고 이제 \'악의적\'인 공격은 없을지언정 크리티컬한 한계가 있습니다. 현재까지 알려진 모든 영상기법은 모두 노이즈를 포함하거든요. 그게 픽셀로 잡힙니다. 그리고 이 노이즈를 원천적으로 제거하는 방법이 없는데, 이 노이즈를 null 처리하는 방식에 있어서 \'전문가의 직관과 컨센서스\'보다 좋은 방식이 못 나오고 있는데, 그 직관과 컨센서스조차 결과물 재현의 엄밀성이 깨지다보니... 결국 학습할 때까지 골든 스탠더드로의 판정을 누군가 해줘야 하는데 이 부분에서 거의 인식론적인 공격까지 나오고 있습니다. 뭐 어차피 임상적으로 큰 줄기가 훼손되진 않으니까 이대로 가긴 갈텐데, 의학 자체가 가지는 과학적 엄밀성과 공학적 엄밀성의 약점이 CAD에서 그대로 드러나버려서... 아무튼 그 지점에서 \'기계가 인정하는 수준의 일반론\'의 확립 자체가 불가능한 것 아니냐는 의견이 조금씩 힘을 얻고 있습니다.
    삼공파일
    지난번에 Azurespace님이 올려주신 글 보고 정말 신기하다고 생각했는데, 반대로 생각하면 그렇습니다. 알고리즘을 통해서 그림을 보고 스쿨버스인지 낙타인지 타조인지 알 수 있는 단계까지 온 것이죠. 일단 심플 체스트 엑스레이 놓고 폐가 양쪽 다 있는지 인식하는 정도로까지 오는데도 좀 갈 길이 많이 남아 있는 게 아닌가 싶습니다.
    레지엔
    그럴 수도 있는데, 이제 사실 흉부 방사선 처음 배울 때도 나오는 얘기인데 편의상 \'폐\'로 보고 \'폐\'로 기술하지만, 엄밀하게 보면 폐를 보는 것이 아니라 공기와 조직의 분포를 보는 것이죠. 나타나는 모든 음영을 이제 저 비례관계의 조절을 통해서 직관적으로 해석하는 것인데, 그 과정에서 사실 굉장히 많은 정보들이 임의 취사됩니다. 그 임의 취사의 과정을 한 방향으로 고정시키는 것이 결국 트레이닝이고... 반면에 컴퓨터에게 데이터를 먹이는 건 해석의 레벨이 좀 달라지는데, 기본적으로 픽셀의 값의 패턴을 뽑아내는 방식이 됩니다.... 더 보기
    그럴 수도 있는데, 이제 사실 흉부 방사선 처음 배울 때도 나오는 얘기인데 편의상 \'폐\'로 보고 \'폐\'로 기술하지만, 엄밀하게 보면 폐를 보는 것이 아니라 공기와 조직의 분포를 보는 것이죠. 나타나는 모든 음영을 이제 저 비례관계의 조절을 통해서 직관적으로 해석하는 것인데, 그 과정에서 사실 굉장히 많은 정보들이 임의 취사됩니다. 그 임의 취사의 과정을 한 방향으로 고정시키는 것이 결국 트레이닝이고... 반면에 컴퓨터에게 데이터를 먹이는 건 해석의 레벨이 좀 달라지는데, 기본적으로 픽셀의 값의 패턴을 뽑아내는 방식이 됩니다. 이게 gross하게 가면 결국 사람하고 차이가 없는 방식이 되지만 정보 입력의 초기 단계에서는 사람과 컴퓨터의 차이를 극단적으로 벌려버리는데, 여기에서 표준화에 실패하면 다음 단계로 넘어갈 수가 없어집니다. 그리고 이 과정에서 사람은 임의의 outline을 잡아서 안팎의 정보에 대해 임의의 가중치를 적용하는데 이 부분이 구조화될 수 없습니다 지금의 공학 수준에서는. 그러다보니 데이터를 먹이고 결과 판정을 해주고... 하는 알고리듬 자체에 대한 회의가 도출되는 것이죠. 결국 이제 \'지금 하는 방법론을 계속 쌓아가면서 될 것인가\' 아니면 \'혁명적인 새로운 패러다임을 제시해야 하는가\'의 싸움의 연장선이에요.
    April_fool
    연구를 계속 진행한다면, 혁명적인 패러다임이 나오기 전까지는 기존의 방법론을 기반으로 하는 수밖에 없지 않나요?
    레지엔
    계속 진행해야 하느냐에서도 딴지가 걸리고(연구비 싸움이 일단...), 사실 지금 몇 몇 영상 분석 프로그램은 상용화가 되어있습니다. 이게 일반적으로 받아들여지는 것은 아니고 특정 병원/대학이 주도해서 개발한 후에 자기들이 좋다고 결과물을 내고 \'너네도 써봐\' 하면서 팔고 있는데 그 싸움도 좀 영향이 있고... 그리고 이쪽에 한해서는 좀 새로운 알고리듬을 주장하는 사람들도 있습니다. 데이터 구조화 방식을 좀 다르게 해서 먹이는 건데 이건 어떤 영상을 대상으로 하냐에 따라 완전히 다른 얘기라서 저도 이해를 잘 못하고 싸우는 것만 보... 더 보기
    계속 진행해야 하느냐에서도 딴지가 걸리고(연구비 싸움이 일단...), 사실 지금 몇 몇 영상 분석 프로그램은 상용화가 되어있습니다. 이게 일반적으로 받아들여지는 것은 아니고 특정 병원/대학이 주도해서 개발한 후에 자기들이 좋다고 결과물을 내고 \'너네도 써봐\' 하면서 팔고 있는데 그 싸움도 좀 영향이 있고... 그리고 이쪽에 한해서는 좀 새로운 알고리듬을 주장하는 사람들도 있습니다. 데이터 구조화 방식을 좀 다르게 해서 먹이는 건데 이건 어떤 영상을 대상으로 하냐에 따라 완전히 다른 얘기라서 저도 이해를 잘 못하고 싸우는 것만 보고 있고(..) 그 외에도 이제, 의료 영상의 대부분이 사실 우열 관계는 있을지언정 특정 상황에 대한 독점이 안됩니다. 예컨대 뇌 CT를 컴퓨터로 돌리는 걸 누가 연구하겠다, 라고 하면 어차피 MRI가 더 좋은데 왜 제한적인 CT를 대상으로 하느냐는 시비가 걸리고, 또 누구는 CT 프로토콜이 영향을 줄 수 있는데 어떻게 표준화하느냐로 시비걸고, 누구는 그 데이터를 기반으로 영상 재구성해서 다른 영상 데이터랑 결합했을 때에, 재구성하지 않은 원본과 다른 영상 데이터를 결합한 것과 같은 결과가 나올 수 있겠느냐로 시비걸고... \'임상 적용의 요구치\'는 높은데 \'실제 분석 대상이 되는 기술과 기술 체계의 합리성\'은 구멍이 있고 그러다보니 이러한 새로운 해석 장치 그 자체의 도입이 역으로 학문과 연구 전체의 합의를 기초부터 다시 잡아야 하는게 아니냐는 필요성을 대두시키고 있습니다. 그러다보니 첫 줄의 결론으로 귀결되죠. \'돈내놔!\'
    April_fool
    결국 세상은 예산이 지배하는 법이로군요.
    Azurespace
    다른 분야에서도 그런 식으로 초기 데이터의 Normalization 방법에 대해 문제가 있다거나, Boundary가 애매한 경우들이 있는데요. 사실 대부분의 경우에 답은 하납니다.

    ... 딥 러닝 자체도 새로운 방법론이 혜성같이 등장한 게 아니라, 엄청난 양의 데이터를 처리할 수 있게 되면서야 시도할 수 있게 된 거니까요. 그 이전에 인공신경망이 여러 방면에서 공격받았던 것들도 레지엔님이 말씀하셨던 그런 이유들 때문이었습니다. 노이즈에 취약하다던지 케이스에 따라서 일관적이지 않은 결과가 나온다던지.. 이게 다 신경망의 복잡도... 더 보기
    다른 분야에서도 그런 식으로 초기 데이터의 Normalization 방법에 대해 문제가 있다거나, Boundary가 애매한 경우들이 있는데요. 사실 대부분의 경우에 답은 하납니다.

    ... 딥 러닝 자체도 새로운 방법론이 혜성같이 등장한 게 아니라, 엄청난 양의 데이터를 처리할 수 있게 되면서야 시도할 수 있게 된 거니까요. 그 이전에 인공신경망이 여러 방면에서 공격받았던 것들도 레지엔님이 말씀하셨던 그런 이유들 때문이었습니다. 노이즈에 취약하다던지 케이스에 따라서 일관적이지 않은 결과가 나온다던지.. 이게 다 신경망의 복잡도에 비해 데이터가 부족하거나, 데이터의 복잡성에 비해 신경망의 뉴런이 부족하거나 하는 것 때문이었던 거죠.

    그래서 그 하나의 답이 뭐냐면..

    더 많은 돈과 더 많은 데이터.... 입니다... OTL
    레지엔
    과... 과연(..)
    April_fool
    히익… 여기 분들은 유전 알고리즘 정도는 다들 알고 계신가 보다…

    기계가 [인식]하는 세계는 인간의 그것과는 다를 수 있다는 것은 수십년 전의 SF에서부터 제시되었던 문제인데, 이게 바야흐로 문제가 되는 시대의 도입부에 우리는 살고 있지요.
    Vinnydaddy
    BLIT이 생각나네요.
    근데 만들어진 이미지들이 또 새로운 예술 작품 같다는 느낌이 드네요.

    액자 만들어서 걸고 밑에 있는 텍스트들 그대로 제목 삼아서 걸어놓아도 될 것 같습니다 흐흐
    프로듀사
    아래 문제는 뭐가 문제인지 잘 이해되지 않네요.
    예를 들어, 동물 사진으로 트레이닝 시켜놓고 꽃 사진 주면 엉뚱한 동물 출력하는 것이 당연해 보이거든요.
    Azurespace
    예제의 그림들은 네트워크의 확신도가 모두 99% 이상입니다.

    보통 말씀하신대로 학습에 전혀 이용하지 않았던 카테고리의 새 데이터를 넣을 경우에 이렇게까지 되지는 않습니다. \"얘랑 그나마 비슷한 것 같은데?\" 내지는 \"얘 내가 아는 종류의 물체가 아닌 것 같은데...\" 에 해당하는 반응이 나와야죠. 하지만 이 경우에는 \"이건 비얌이여. 확실함\" 이런 식으로 나와버리니까요.
    프로듀사
    아, 그러네요. 확신도 높은 쪽으로 계속 진화시켰으니 어찌보면 당연한 거군요.
    이런 경우를 완전히 막을 수는 없어보이는데 (사람 눈도 대상을 분장시켜놓으면 못알아보겠죠;), 그나마 어렵게 하려면 확신도를 공개 안 하고... 여러 종류의 모델을 써야 할까요?
    pointzz
    아, 그럼 output node의 softmax 결과값 중에서 해당 node 결과값이 다른 node들에 비해 점수가 확연히 높음에도 불구하고 저렇게 틀려버린다는 것인가요? 신기하네요...
    Azurespace
    네 바로 그런 의미입니다
    pointzz
    일부 우측 상단의 것들은
    상대적으로 상상력이 풍부한 꼬마아이들에 시킨다면 근접한 결과가 나올 것 같기도 하네요.
    Azurespace
    네 일부는 어느 정도 유사성이 있다는 것은 원문 논문에서도 언급을 합니다. 그런데 전혀 비슷하지 않은 것들도 있어서, 이건 대체 네트워크가 뭘 보고 그리 판단하는지 궁금할 정도죠.
    처음 인공신경망에대한 개념을 접하면서 가장 크게 기대했던 부분은, \"인지/사고 과정에 대한 해석\" 이였는데, 볼수록 이부분은 블랙박스로 두고 결과물이 잘나오는가만 따지는 것 같아 실망이 크네요...
    Azurespace
    그건 인지과학에서 해결해야 할 문제라... (인공신경망이) 어떤 이유로 기존의 인공지능보다 좋은 결과를 만들어낼 수 있는가에 대한 연구는 제법 있습니다. 다만 그 연구성과가 인지과학 쪽에 피드백되고 뭔가 영감을 주기에는 시간이 필요할 것 같네요.
    대학원 코스웤에서 겉핥기 나마 배우고있는데, 내부 layer 들에서 일어나는 일들이 수학적(정확히말하면해석적)으로 표현되긴하나, 이 input 에 대한 output 이 어떻게해서 나오는지 그 과정에 대한 해석은 무시된 상황 아닌가요?
    총의 방아쇠를 당기면 총알이 발사 된다는 사실은 아나, 그게 어떠한 원리로 총알이 나가는지 모르는 상태랑 비슷하다는게 제 소감이거든요.

    첫번째처럼 그림이 사람이 봤을땐 똑같지만, 기계가 봤을 때 다른 결과가 나온다는 현상이 얘기될 뿐 그에대한 원인+해결방안이 어떻게되는지에 대하여는 제가 배웠던 내용을 바탕으로는 도저히 추론이 안되네요.
    Azurespace
    구글 딥마인드의 저프리 힌턴 교수가 얼마 전에 레딧에서 AMA를 진행했었는데, 거기에서도 비슷한 질문이 있었던 기억이 나네요. 관심이 있으시다면 읽어보시기 바랍니다.

    https://www.reddit.com/r/MachineLearning/comments/2lmo0l/ama_geoffrey_hinton/

    당장 성과를 내야 펀딩이 따라오는 이공계 특성상 일단 결과가 잘 나오게 하는... 더 보기
    구글 딥마인드의 저프리 힌턴 교수가 얼마 전에 레딧에서 AMA를 진행했었는데, 거기에서도 비슷한 질문이 있었던 기억이 나네요. 관심이 있으시다면 읽어보시기 바랍니다.

    https://www.reddit.com/r/MachineLearning/comments/2lmo0l/ama_geoffrey_hinton/

    당장 성과를 내야 펀딩이 따라오는 이공계 특성상 일단 결과가 잘 나오게 하는 방법을 연구하는 사람이 많은 것은 사실입니다만, 중간 과정에 대한 고찰이 없다는 말씀은 지나친 비약입니다. 그 비밀을 밝혀내기 위해 연구하는 사람들도 있고, 힌턴도 그 중 한 명입니다.

    그리고 ConvNet의 경우는 시각화를 통해서 어떤 식으로 feature들이 분리되고 통합되는지 역추적이 가능합니다. 보다 보면 인공신경망이 어떤 식으로 사물을 추정해내는지 어느 정도 이해한 것 같은 느낌(...)이 듭니다. Deep Visualization을 검색해보시면 동영상이 몇 개 나올 겁니다.

    다만 인공신경망에 사용되는 뉴런은 실제 생명체에서 발견되는 뉴런과는 아주 다른 물건이기 때문에 인공신경망의 동작을 완전히 이해한다 하더라도, 그것이 과연 인간의 인지능력에 대한 결정적인 단서를 제공할 수 있을지는 저 개인적으로도 궁금합니다. (계산능력은 동등하다고 합니다만 어쨌든 동작방식이 다른 건 사실이니까요)
    아... Hinton 이분 coursera 에 Neural Networks for Machine Learning( https://www.coursera.org/course/neuralnets ) 의 그분이군요. 이분 덕분에 인공신경망에 대해 잘(?)배우고있습니다. 중간에 대한 고찰을 못본건 수업이여서 그랬던걸로...

    상황에 맞는 reddit 글/동영상들 추천해주셔서 감사합니다. 나중에 살펴보도록 하겠습니다!
    듣보잡
    힌튼은 그쪽 대가 중에 대가 거의 조상님급이죠 크
    듣보잡
    저는 인공신경망에서 실제 생물의 인지과정을 해석하려고 접근해서는 안된다고 생각합니다. 인공신경망이 진짜 신경을 시뮬레이션하는 것도 아니고, 같은 원리라고 확신할 수도 없습니다. 말씀하신 블랙박스는 해석하려는 노력 자체는 존재하니 이후 진전은 기대할 수 있겠지만, 그건 인공신경망의 동작원리일 뿐 실제 신경의 동작원리로 받아들이면 안 됩니다.
    듣보잡
    오랜만에 보는 꿀글이네요 크 제가 사실상 여기서 이분글만 기다리고 있는 중이라..
    Azurespace
    이게 올해 나온 굵직한 이슈는 이미 다룬 것 같아서... 소재 정하기가 힘드네요
    브로콜리
    따로 블로그같은건 안하시나요? 매번 정말 재미있게 보고 있습니다.
    Azurespace
    네 블로그 같은 건 하지 않습니다. 관리하기가 너무 귀찮아요..
    재밌다재밌다
    정말 신기하네요. 아래쪽 그림들도 보다보면 컴퓨터가 한 생각이 뭔가 제 내부의 느낌과 비슷하네요.
    은때까치
    딥러닝으로 이 분야에 입문해서 지금은 실제 뉴런을 모델링하고 있는 학생입니다. 늘 재미있게 읽고 있어요. 오늘은 제가 읽었던 논문이 소개되어서 괜히 뿌듯하네요:)
    도로리
    딥러닝으로 입문을 하시다니! 혹시 실례가 안된다면 어떻게 공부하고 계신지 살짝만 여쭤봐도 될까요?
    은때까치
    뉴럴네트워크에 대해 전혀 배경지식이 없던 상태에서 우연히 딥러닝 수업을 듣게 되었고 그 이후 관련 랩에 소속하여 연구하고 있습니다:)
    2막4장
    잘 보고 갑니다. 작년까지 비전으로 머신러닝 하다가 올해와서야 드디어 생산공정의 빅 데이터로 머신러닝 하고 있는 입장이라 참 재미있어요.
    1차 산업에 가까운(?) 곳이라 컴퓨터와 가까운 사람들이 우리 팀 외에는 별로 없다는 것이 장점이기도 하고 단점이기도 한 상황이네요.
    올려주시는 글 늘 잘보고 있습니다. 회사 세미나때 이런 것도 있더라 하면서 딥러닝을 세미나시간을 통해 소개 좀 할까 하다가도
    그 나이드신 양반들이 과연.... 얼마나 알아먹을까 싶은 생각에 말아버리곤 했어요.

    실제로 압연기(여기서 제 직장의 업이 조금 ... 더 보기
    잘 보고 갑니다. 작년까지 비전으로 머신러닝 하다가 올해와서야 드디어 생산공정의 빅 데이터로 머신러닝 하고 있는 입장이라 참 재미있어요.
    1차 산업에 가까운(?) 곳이라 컴퓨터와 가까운 사람들이 우리 팀 외에는 별로 없다는 것이 장점이기도 하고 단점이기도 한 상황이네요.
    올려주시는 글 늘 잘보고 있습니다. 회사 세미나때 이런 것도 있더라 하면서 딥러닝을 세미나시간을 통해 소개 좀 할까 하다가도
    그 나이드신 양반들이 과연.... 얼마나 알아먹을까 싶은 생각에 말아버리곤 했어요.

    실제로 압연기(여기서 제 직장의 업이 조금 드러날 것 같지만) 하나만 해도 워낙 많은 인자들이 들어가기에 무려 Neural Network를 활용해서 제어를 합니다.
    (담당이 아니라 실제로 쓰는지는 모르겠지만, 무려 ANN 구현부 헤더에 SIEMENS라고 적힌 것 보면 상관이 영 없진 않은 것 같고요, 참고로 지멘스는 압연기 SW 만든 곳입니다)
    얼마전에 아는 사람이 GA(Genetic Algorithm)을 가지고 과제도 하나 너끈히 해결하고 논문도 쓰고 하는 것 보면 참 기술 발전이 새롭다는 생각이 듭니다.
    자극도 되고요. 지금은 R이라는 좋은 툴이 있어서 공부중 입니다. 이거 생각보다 좋더라구요~
    여태 C/C++로 된 소스를 찾아 해매이다가 R로써 많은 고민들이 해결됐어요.
    Azurespace
    R은 이름은 많이 듣는데, 다른 컴퓨터 언어들이랑은 좀 많이 다른 것 같더라고요. 데이터 분석이나 통계 쪽에선 핫하긴 한 것 같던데..

    뭐 딥 러닝이 음성 인식이나 사물 인식 등의 분야에서 Awesome한 결과물들을 쏟아내고 있지만, 산업에서 가장 많이 쓰이는 머신러닝 기법은 여전히 Random forest죠. 딥 러닝은 계산 자원을 워낙 많이 먹어서... 구글이나 MS 같은 IT 공룡들이 아니고서야 당분간 쉽사리 도입하기는 어려울 것 같다고 생각하긴 해요.
    2막4장
    R이 핫하긴 합니다.
    아직은 스크립트 언어고(무시하는 건 아닙니다만) 다른 언어들과의 연계성도 좀 부족하고 무엇보다 스탠드얼론으로 동작하는 애플리케이션 만들기가 조금 까다롭네요.
    C#과는 잘 연결됩니다. 간단히 말하자면 매트랩 느낌이 좀 납니다.

    딥러닝을 위시한 첨단(?) 알고리즘은 음.. 업무에 적용하기엔 장벽이 있는 것 같아요. (어려워서...)
    공부해보면서 느낀건데 알고리즘 자체에 대한 지식도 중요하고 해당 업무나 데이터의 성격에 맞는 알고리즘이 무엇인가를 찾는 것도 중요한 것 같아요.
    그래서 알고리즘 소개에 대... 더 보기
    R이 핫하긴 합니다.
    아직은 스크립트 언어고(무시하는 건 아닙니다만) 다른 언어들과의 연계성도 좀 부족하고 무엇보다 스탠드얼론으로 동작하는 애플리케이션 만들기가 조금 까다롭네요.
    C#과는 잘 연결됩니다. 간단히 말하자면 매트랩 느낌이 좀 납니다.

    딥러닝을 위시한 첨단(?) 알고리즘은 음.. 업무에 적용하기엔 장벽이 있는 것 같아요. (어려워서...)
    공부해보면서 느낀건데 알고리즘 자체에 대한 지식도 중요하고 해당 업무나 데이터의 성격에 맞는 알고리즘이 무엇인가를 찾는 것도 중요한 것 같아요.
    그래서 알고리즘 소개에 대한 글을 보면 이리저리 짱구 굴려가며 더 고민하게 되네요
    아직은 학생의 마음(?)으로 공부해보려고 합니당
    파란아게하
    100에 가까워지려는 99.9999999......를 잡으러가는 대장정 떠나는 느낌.
    물론 아직 99도, 90도 아니고 1~2 정도 같지만요.
    스마트카의 갈길은 멀고도 험하네요
    목록
    번호 제목 이름 날짜 조회 추천
    236 IT/컴퓨터어느 게임 회사 이야기 (1) 26 NULLPointer 16/07/19 22456 29
    179 IT/컴퓨터100점짜리 단어를 찾아서. 30 April_fool 16/04/05 12029 15
    176 IT/컴퓨터최초의 웹브라우저 Mosaic 이야기 22 블랙자몽 16/03/30 7905 4
    173 IT/컴퓨터최근 국내 PC 웹브라우저 점유율의 변화 43 Toby 16/03/24 10422 5
    169 IT/컴퓨터알파고가 이겼군요. 35 Azurespace 16/03/11 10309 11
    115 IT/컴퓨터웹 프론트엔드(front-end)란? 24 Toby 15/11/17 14051 8
    109 IT/컴퓨터엥? 딥러닝 그거 바보 아니냐? 41 Azurespace 15/11/05 13299 8
    88 IT/컴퓨터간략하게 살펴보는 웹디자인의 역사 24 Toby 15/10/16 11376 17
    79 IT/컴퓨터사실 구글은 스카이넷을 만들고 있습니다 16 Azurespace 15/09/30 10228 4
    71 IT/컴퓨터스타트랙 신경망 8 Azurespace 15/09/16 8798 5
    69 IT/컴퓨터거장의 그림을 30초만에 만들다: DeepStyle 33 Azurespace 15/09/08 32284 10
    67 IT/컴퓨터[약혐?] 안드로이드는 전자 양의 꿈을 꾼다 10 Azurespace 15/09/07 11618 9
    목록

    + : 최근 6시간내에 달린 댓글
    + : 최근 12시간내에 달린 댓글

    댓글
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기
    회원정보 보기
    닫기