- 다양한 주제에 대해 자유롭게 글을 작성하는 게시판입니다.
Date | 24/10/18 17:35:58 |
Name | 블리츠 |
Subject | 챗 지피티4가 잘 작동하는 이유 |
chat gpt-4o에게 이렇게 물어보았습니다. "GPT-4는 학습 과정에서 어떤 책들을 읽었니?" 그러니 정확한 목록은 공개되지 않았다고 하지만(상업적 이유로) 자신이 추측할 수 있다는 범위는 다음과 같다고 얘기하였습니다. 고전문학, 비문학 서적, 참고 서적 및 사전, 철학 및 인문학 서적, 대중 과학 서적 등... 역시 박학다식?한 이유가 있었습니다. 물론 더 많은 인터넷의 블로그나 뉴스, 칼럼 등도 학습했을 테지만요. 지피티에 대해 더 공부중에 있습니다만 이렇게 인류의 모든 지식을 학습하고 그에 기반에 답하는 능력 떄문에 지금 성능이 이렇게 좋은 것 같습니다. 물리나 통계에서는 말하는 '큰수의 법칙'이 적용되었다고 할 수 있을까요? 통계적으로 표본 데이터가 많으면 많아질수록 표본의 평균이나 분석값들이 참 값에 가까워지는데, 지피티 모델이 학습하는 데이터가 정말 방대하니 좋은 답을 생성하는 능력도 올라가는 것 같아요. 요즘 지피티를 써보면서 계속 놀라고만 있네요 0
|
백본모델에서 최고수준으로 인정받는 모델들은 인터넷상의 보편적인 자료들은 거의다 학습했다고 하더라구요.
그리고 이제 고도화된 지식을 별도로 학습하기 위해, 특정 기관들에서 박사급들을 동원해서 만드는 자료들을 별도로 제공받고 있다고 합니다.
이 자료들을 얻는데 사용하는 비용이 상상외로 비싸다고 합니다. 조단위라고... ㄷㄷㄷ
그리고 이제 고도화된 지식을 별도로 학습하기 위해, 특정 기관들에서 박사급들을 동원해서 만드는 자료들을 별도로 제공받고 있다고 합니다.
이 자료들을 얻는데 사용하는 비용이 상상외로 비싸다고 합니다. 조단위라고... ㄷㄷㄷ
얼마전에 제가 본 문서는 아래 문서가 아니었는데, 블리츠님에게 다시 답변을 해드리기 위해 찾아보니 아래 링크 정도가 찾아지네요 ^^;
https://news.hada.io/topic?id=15150
https://news.hada.io/topic?id=15150
목록 |
|