기본 콘텐츠로 건너뛰기

라벨이 NPU인 게시물 표시

chagpt를 625배 빠르게 처리하는 AI반도체가 한국에서 나왔다?

영상 버전 :  https://youtu.be/qCA0oP1-DFI 기사 본문 https://www.koreatimes.net/ArticleViewer/Article/157870 요즘 한국에서 AI반도체를 만들었다는 둥의 이야기가 여기저기서 나오고 있네요..  AI반도체란게 그렇게 갑자기 툭 튀어 나올 정도로 얕은 기술인건가요? 아니면 다들 신경 안쓰고 있는 시기에 십수년에 걸쳐서 연구를 했던걸까요? 이 내용은 한국의 특정 기관을 까내리는 것이 아닌 제가 느낀 이상한 점을 이야기한 것 뿐이기 때문에,  제가 틀렸을 수도 있습니다.  실제로 IEEE라는 글로벌 표준을 지정하는 곳에도 신청이 들어갈 정도면 그만큼의 기술력과 자부심이 있는것은 아닌가 싶습니다.  단지, 기사화 된 내용이 정말 맞는 건지 의문이 들어서 꼬집어 보는 것 뿐이니, 이런 의문점이 좀더 클리어하게 공개가 되면 좋겠다 싶습니다.  내용을 보면  입력 값의 길이로 SNN과 DNN을 분기시키는 것이 골자입니다.  원래 DNN은 엄청난 수의 연산이 필요한데, Core를 3400개 이상 가진 NVIDIA가 병렬로 연산하면 이론상으론 8코어 CPU의 400배 이상 빠릅니다.  하지만 SNN의 경우 그렇게 많은 연산을 필요로 하지 않기 떄문에 DNN만큼의 획기적인 변화는 나오지 않지요.. 즉, SNN만으로 처리하는 경우 역으로 더 빠를 수 있습니다.  그렇다고 하면 모두 SNN을 쓰지 왜 DNN을 쓸까요?  서로 처리하는 영역이 다르기 때문에 그렇게 쓸 수가 없었던 것이죠.  그걸 처리 요청을 받아서 굳이 DNN으로 쓸 필요가 없는 단순연산은 SNN으로 변환하고자 하는게 이번 뉴스거리 일 겁니다.  단지 그 이야기라면 그냥 요청 처리시에 구분해서 던진다거나,  DNN의 오픈소스에 입력값을 전처리할 때 SNN으로 분기만 시키면 되는거 아닌가요? 만약 그렇다고 한다면  기사 내용에서 두 가지 중요한 문제가 있는데요..  첫 번쨰, 개발한 것이 AI반도체라고 했는데요..  AI반도체는 LLM같은 모델을 넣은