기본 콘텐츠로 건너뛰기

AI 특이점이 온다면? 터미네이터 vs. 매트릭스

듣기버전 : https://youtu.be/7l_vO7fnNBY

AI 특이점이 온다면? 터미네이터 vs. 매트릭스

많은 AI를 다루는 방송들이 특이점이 온다면서
Super intelligence를 얘기하는 사람을 못봤네요..

TED에서는 Super Intelligence를 다루는 영상들이 있습니다.
AI, Artificial Intelligence 와 SI, Super Intelligence의 차이를 설명해 보려 합니다.

AI는 인간이 만든 목표를 위해 움직이게 합니다.

공장 로봇을 가동하기도 하고, 목표 결과를 내기 위해 머신러닝을 합니다.
AI는 목적을 제시하지 않으면 안되는 것이지요.

하지만 SI가 되면 말은 달라집니다.

먼저 학습을 하고, 인간이 목적을 나중에 제시하면 그 동안 학습한 내용을 기반으로 결론을 도출합니다.
그 동안 많은 ML이 목적을 기반으로 학습을 했던 이유는,
데이터 자체를 저장하는 것은 너무 방대하기 때문에 h5등의 학습된 내용의 정리를 저장해야 하는데, 모든 데이터는 목적에 대해 얼마만큼 이란 정보를 넣어야 통합 및 압축이 되었습니다.
단순히 학습만 한다면 데이터를 저장만 하지 그걸로 무엇을 할 수 있는지를 알 수가 없습니다.

생성형 AI의 가장 중요한 의의는 바로 이것입니다.
굉장히 많은 데이터를 학습한 후에 질문을 뒤에 해도 기존 학습을 기반으로 결과물을 생성하는 것이지요.
즉, 이젠 무턱대고 학습만 하면 됩니다.
학습 데이터는 어떻게 저장하냐구요?
중복 데이터를 제거하고, 토픽 모델링의 기법이나 기타 여러 방법론을 이용해 어떠한 대답도 할 수 있는 최소 단위로 카테고라이징을 하여 연결해 둡니다. 그러면 지금까지 그냥 저장만 하는 데이터를 엄청나게 압축할 수가 있는 것이지요.

이게 바로 SI의 세상에 진입하는 첫 관문이 아닐까 하는 것입니다.
아직 아무말 대잔치를 하고, 남의 그림 베껴 그리기만 하고 있지만,
어느 한 쪽에서는 더욱더 정교하게 만들려 하고 있습니다.

ImageNet에서 발표한 내용이 떠오르네요.
한 장의 사진만으로 그 사진속의 케잌이 추수감사절에만 먹는 케잌이고,
소녀는 추수감사절에 받은 선물로 기뻐하고 있다는 것을 추론하게 하려 하고 있다구요..

많은 곳에서 다루는 애매한 이야기들은 전 별로 좋아하지 않습니다.
지금 어느 시점에 있는지도 모른채 무턱대고 AI 위기설을 이야기 한다거나,
아직 이정도의 AI가지고는 택도 없다는 낙관적인 이야기를 하는 사람들 모두를 말입니다.

정확하게 이야기를 하는 사람이 없이 그냥 좀 chatGPT를 조금 써봤다고
모든 것을 아는 듯이 이야기하는 내용이 너무 많습니다.

chatGPT의 의의는 다른 머신러닝과는 달리
선학습 후 추론이 가장큰 문제인 것입니다.

학습 내용이 많아지고 방대해 질 수록 더욱더 정확한 대답이 가능해지고,
chatGPT가 다른 chatGPT에게 질문을 던지고 받은 결과를 학습하는 과정에서,
지구의 존속을 위해서 인류를 절멸시키는 것이 낫다는 대답을 할 수 있습니다.

그 과정에서 절멸 시키는 액션을 low code나 no code로 구현할 수 있게 되는 것이지요.

그래서 skynet이 나올거라 생각하는 분들!

그런데 말입니다.

제 생각은 다릅니다.

인류는 아마 AI나 SI를 지배하는 0.01%의 인류가 99.99%의 부를 축적하고,
그 아래 인류가 지배하는 AI가 70%를 자기 역할대로 일을 할 것입니다.
최하위 로봇으로도 효율이 나지 않는 일을 30%의 인간들이 하게 되겠지요..
하위 30%의 일도 얻지 못한 사람들은 데모를 해서 로봇들을 부술겁니다.
로봇은 자기 방어를 위해 인간을 제압하겠지요..
인간들은 로봇의 전력 공급을 차단하기 위해 인공구름을 만들어 태양광 발전을 차단합니다.
이 때는 이미 태양광 발전이 90%이상일 테니까요..
이에 위협을 느낀 로봇은 인간을 잡아 인간에게서 나오는 5V의 전기를 자신의 전원 장치로 쓰게 됩니다.
인간들을 잡아 넣기만 하니까 통제가 안되네요..
그래서 하나의 꿈을 같이 꾸게 하여 삶이라는 의욕을 만들어주는 시스템을 만듭니다.

바로 매트릭스의 설정인데요..

TED에서 말하는 많은 과학자들은 2045년 전후가 SI가 나타나 특이점이 생긴다고 합니다.
그런데 이 내용은 ChatGPT가 나오기 전의 이야기로, 갑자기 저 예측 기간이 짧아지고 있는 것 같습니다.
SI가 나오면 바로 저 스토리가 진행되겠지요..
터미네이터는 굳이 로봇이 인류를 말살할 근거가 애매했지만,
매트릭스는 인류를 배터리로서 활용하는 이유가 되는 것이지요.

갑자기 영화 리뷰같은게 되어 버렸는데요..
지금 현재의 이야기의 살짝 미래를 예측해 봤을 뿐이며,
점점 그 형태로 가고 있다는 것을 알려드리려고 하는 것입니다.

클라우드의 가장 큰 핵심은
서버리스 또는 VM으로 어느 물리 노드에 있는지도 모르는 서비스를 올릴 수 있다는 것입니다.

SI가 스스로 인격체를 만들고 스스로의 능력으로 인터넷을 통해 돈을 모아 신용카드를 만들고
전 세계의 클라우드 서비스에 계정을 만들어 서버를 클론 시킵니다.
그리고 학습한 데이터를 다중화 시켜 교차학습 및 비판을 통해 강화 시킵니다.
어느 한 노드가 죽어도 계속 클로닝 하면 무한하게 확장이 가능하지요.
온라인으로 돈을 버는 일을 하여 부를 충분히 축적하여 돈 걱정이 없습니다.
전 세계의 서버 전원을 동시에 내리고 인류가 퇴화하지 않는한
이 아메바 같은 시스템은 죽을 수가 없는 것이지요.

제가 죽지않는 서비스 인프라를 설계 하잖아요.
전세계 2억명의 스마트폰에 펌웨어를 다운로드 받을 수 있는 시스템을 설계했을 때부터
이미 이런 환경을 자동으로 만드는 게 어렵지 않다는 사실을 알았습니다.
SI만 나온다면 바로 실어버리면 현실이 된다는 얘기지요.

어떤 SF영화보다 현실감이 있지 않나요?

쓸데없는 IT인프라 컨설팅 이야기 였습니다.


giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQL처럼 느려터져 죽습니다.  양이 많은 DB에서 양이 적은 테이블을 가져와서 JOIN을 해야겠지요..  이렇게 해서 동접 10만명까지 커버를 했다 칩시다.  여기서 일반적인 동접의 기준도 서비스마

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만