기본 콘텐츠로 건너뛰기

생성형AI가 만들어가는 인간불신 사회




#생성형AI 가 아무리 발전해도 그걸 쓰는 사람의 능력 이상은 끌어낼 수 없다. 

요즘 이런 이야기를 하시는 분들이 늘고 있습니다. 
저 역시 공감하고 있고, 어제 그 공감이 또 확신이 되었네요. 

신규 고객의 환경은 #proxmox 로 #kubernetes 를 관리하는 환경인데요. kubernetes가 원래 #docker #container 관리를 편하게 해주는 툴 이잖아요?
그런데 kubernetes를 바로 안쓰고 다시 proxmox라는걸 이용해서 #가상환경 까지 통합관리를 하더라구요.. 

즉, #VMWare + Kubernetes 랄까요?

Kubetnetes를 그냥 쓰면 어딘가 docker 이미지를 디플로이 할 수 있는 환경을 손수 준비를 해야 하지만, proxmox에서 설정하면 자동으로 VM과 docker 이미지를 같이 디플로이 할 수 있다.. 인데요.. 
어떻게 보면 참 편리한 도구 같잖아요?

하지만, 역으로 이게 더 관리가 어렵네요. 
이유는 VM을 위한 환경 변수도 다 설정해야 하고, 
VM이 설치 된 뒤의 Docker이미지 관련 환경 변수도 다 설정하고 해야 하니
어짜피 한 화면에서 하느냐 서너화면에서 하느냐 차이 밖에 없더라구요..
너무 복잡하게 설정되어 있어서, 이걸로 서비스를 하나 만들었는데 신규 고객용으로 디플로이 하는거 자체가 엄청난 수작업 해야하는 상황입니다.

이 이야기는 관리포인트가 더 많아서 장애에 대한 대처 지식이 더욱 필요한 것이지요.  

그런데 일이 터져 버렸습니다. 
인수인계를 받자마자 일 주일도 안되어 서비스가 떨어졌습니다. 
인계를 해준 타이 개발자들은 나몰라라 하고 인계후 연락을 끊어버렸구요.. 

이 원인을 찾기 위해 #chatgpt 를 사용해서 에러 메시지와 그에 따른 원인을 묻고 그 원인처럼 보이는 것을 하나씩 찾아서 제거해 갔죠. 

그런데 사실 이 작업은 세 명이서 각자 했습니다. 
저 포함 세 명은 chatgpt를 업무에 적극 활용하여 사용 전보다 두 배 이상의 업무 효율을 내고 있는 상태이구요..
거의 chatgpt에 지나치게 의존하고 있는 상황이기도 합니다.
이 시스템에 대해서 배우기도 할 겸 각자에게 해결해 보라고 지시를 했고, 해결 못할까봐 저도 같이 매달렸죠. 

요즘은 #개발자 도 인프라를 만질 수 있도록 컨테이너화 하고 클라우드에서 사용하고 하잖아요? #풀스택 #엔지니어 어쩌고 하면서..
그렇기 때문에 다들 #클라우드 환경을 처음 만질 때 처럼 당황하는 느낌이었지만, 두 사람은 chatgpt의 횡설수설에 중간에 헤메고 있었구요, 저는 kube-apiserver 가 자체 cluster master와 slave 를 연결하는데 ssl이 필요한데 그게 문제 인 부분을 찾았죠. 물론 chatgpt는 범용적인 대응만 이야기 했구요.. 

거기서 구체적인 증거를 찾아 이를 해결하는 방법에 대해 chatgpt에게 요청하니 그에 대한 대응 방법은 명확하게 알려주더랍니다. 
그렇게 해결을 했구요.. 이런 구조는 저도 처음 보지만, 보고나서 이렇구나 느꼈고, 그거에 대해서 chatgpt와 대화를 통해 더욱 구체적으로 알게 되었습니다. 하지만 이 부분을 몰랐다면 아직도 chatgpt와 농담따먹기 하고 있었겠죠..

또다른 예를 들어볼께요.


지금 저 포함 세 명은 chatgpt를 엄청 잘 활용하고 있죠. 
하지만 한 사람의 의존도는 이상할 정도로 치우쳐 있습니다. 
그 사람이 chatgpt에게 질문하여 얻은 결과물은 제 경험과 지식보다 정확하지 않는 경우가 많습니다. 
이유는 chatgpt는 그 사람의 능력에 준 하여 대답을 하기 때문이죠. 
하지만, 제 말보다 chatgpt의 말을 더 신뢰하기 시작했지요. 
제가 이 작업은 안된다고 이야기를 하면
Chatgpt에게 물어봐서 얻은 대답을 여과없이 복붙으로 채팅창에 던지며
이렇게 한다면 된다던데? 
라고 저를 의심하기 시작했네요. 
하지만 그 방법 역시 이미 써봤기 때문에 안된다고 한거였다고 이야기를 해야 
비로소 납득을 합니다. 
즉, 인간 불신이 시작된 느낌이죠.. 
Chatgpt의 대답에 논리적으로 대적할 수 없으면
이젠 신뢰를 얻을 수 없는 상황까지 오고 있는 것 같습니다.

chatgpt는 인류의 대부분의 정보를 습득했습니다. 
하지만 chatgpt는 질문자의 질문에 대해서만 대답을 합니다. 
질문이 모호할 수록 일반론을 말하죠. 

정확한 개념을 머릿속에 넣고 구체적인 대답을 도출할 질문을 만들어내는 사람들이 chatgpt를 가장 효율적으로 사용할 거라 생각이 듭니다. 

즉, chatgpt의 대답을 신뢰하기 전에
자신이 정말로 맞는 질문을 했는지를 먼저 성찰하지 않으면
인간 불신까지 이어지지 않을까 걱정이 됩니다. 

Chatgpt는 된다는데 왜 안된다고 하지?
정말 저 사람은 실력이 없는거 아냐?

라고 생각한다면.. 소름이 돋네요.. 
아니 이미 여기저기선 이런 분위기가 퍼지고 있는 듯 합니다.

많은 프롬프트들이 돌아다니고, 
프롬프트들은 점점 고도화 되어가고 있습니다. 
하지만, 가장 중요한 것은
자기의 업무에 대한 프롬프트는 스스로 만들 정도의 능력이 필요한 거죠. 
그렇지 않으면 스스로 chatgpt가 옳은 대답을 하고 있는지 판단을 못하고, 
오히려 인간불신에 사로 집히지 않을까요?

앞으로도 AGI가 나온다 한들
그들은 더욱더 질문자의 의도를 생각해서 대답을 할 겁니다. 

즉, 

이 넘은 이 정도 수준이니까 이 정도만 이야기 해줘도 될거야. 
이 넘은 많이 아니까 이정도 대답을 해주지 않으면 날 괴롭힐거야 

라고 AGI는 생각하고 대답하지 않을까요?



貼り付け元  <https://www.linkedin.com/feed/> 


 giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

댓글

이 블로그의 인기 게시물

일본 두바퀴 여행(바이크 편)

영상버전 : https://youtu.be/P3vC17iVu1I 이번에는 일본으로 넘어와서 일본 종주하시는 바이커들을 위한 정보입니다.  일본에서의 2륜의 정의가 면허와 도로교통법이 조금씩 다르다고 합니다.  그래도 그렇게 크게 신경쓸 건 없으니 딱 세 종류로 말씀 드릴께요.  50cc는 원동기 1종이라고 하여 3차선 이상 교차로에서 우회전, 한국에선 좌회전 같이 크게 도는 것이지요..  이게 불가능합니다.  직진 신호로 넘어간 뒤에 방향을 틀고 다시 직진으로 두번 꺾어 가야 하구요,  두 명이 타면 안됩니다.  그리고 맨 가장자리 길로만 가야해서 애매하게 끝에서 두 번째 차선만 직진인 곳들이 있어서 난감할 때가 있지요. 그런데에 직진하면 걸리는 곳이 있다고 합니다. 어느 정도까지 걸리고 안걸리고는 정확히는 모르지만,  직좌 마크가 아닌 좌회전 마크만 있는 곳이 은근히 많으니 조심해야 하겠더라구요.  최고 시속도 30km를 넘기면 안되어 천천히 달려야 합니다.  아뭏든 제약이 엄청나게 많으므로 60cc이상을 가져오시거나 렌트 하시는 것을 추천하구요,  125cc미만은 겐츠키 2종이라고 하여 두 명이 타도 되고, 3차선 이상에서 우회전이 가능합니다.  상당히 제약이 풀리는 대신 고속도로를 탈 수가 없지요.  만약 국도로 천천히 올라오신다면 125cc미만으로도 충분합니다.  실제로 일본인 바이커들 중에서도 국도 종주하는 모습을 많이 볼 수 있구요,  도심에 가면 125cc미만까지만 주차 가능한 바이크 주차장도 꽤 많기 때문에 도심용으로는 메리트가 큰 것 같습니다.  뭐, 125cc대는 곳에 큰 바이크를 대는 경우도 자주 보는데, 아무도 뭐라 안하긴 합니다.  그도 그럴 것이, 일본의 바이크 등록대수는 1031만대 인데도 바이크 전용 주차장은 턱없이 부족하다고 합니다. 바이크 주차장이 저렴하기 때문에 웬만한 ...

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQ...

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만...