기본 콘텐츠로 건너뛰기

한국의 IT Outsourcing 시장의 현실과 미래에 대한 고찰

중복 되는 이야기를 자주 쓰긴 하지만, 
중간중간 정리하고 통합하겠습니다. ^^

한국의 IT Outsourcing 시장은 
서점에서 파는 모 백서에 따르면 년매출 약 4조원 정도 됩니다. 
공교롭게도 94%는 대기업과 공공기관에서 발주하는 물량이구요, 
6%인 2400억원 정도가 중견 이하에서 올리는 매출이지요. 

물론 중견기업과 중소기업의 많은 부분조차 대기업의 하청으로 생기는 물량이기 때문에
중소기업자체의 매출은 극히 드물다고 생각하시면 됩니다. 

IT에 종사하시는 분들은 그냥 실감이 나실 것입니다. 
이 글을 읽고 있는 본인 뿐만아니라 많은 동종업계 종사자 분들이 늘상 하는 얘기는
조달청에 어떻게 하면 입찰을 잘하는지 눈여겨 본다거나
국가 예산 따먹기를 위해 얼마나 머리를 굴려야 하는지..

즉, IT다운 곳에 쓰이는 금액 보다는 

얼마나 눈치를 잘보고 
제안서를 화려하게 잘 쓰고
화려한 입담으로 담당자를 속여 넘겨야 
되는지를 자랑처럼 늘어 놓습니다. 

심지어는 국가 예산 통과를 도와주는 전문 기업도 나오고 있지요. 
그렇게 국가에서 2억의 예산을 받으면 통과 기업이니 기술료니
비용 계상(計上)을 도와준 기업의 수수료니 하면 반은 빠져 나갑니다. 
그리고 나서 나머지 금액으로 국가에 형식적으로 리포팅하면서 버리는 시간과 비용을 생각하면....
남는게 없지만 현상 유지를 위해선 여기에 매달려 이게 주업이 된 기업들도 많지요. 

늘상 비교를 하고 있지만, 

일본의 IT Outsourcing 시장만 보더라도
1등 기업이 4조엔(한화 44조여원)이지만, 
한국과는 달리 2등 기업이 약 2.5조엔(한화 28조여원)으로
상위 기업들이 엄청난 편차를 가지고 있지 않습니다. 
그냥 30세의 독립한 소규모 IT Outsourcing사업을 하는 젋은 사람도 200억엔(한화 2200억여원) 매출을 내기도 하니까요. 한국에서는 상상할 수도 없는 숫자입니다. 시장 자체가 작으니까요..
 
그리고 이들은 자기네의 이득이 되지 않는다면 출혈경쟁을 하지 않습니다. 
즉, 이익을 조금 낮추거나 비용 효율화 하는 것으로 얼마든지 
치고 들어갈 여유가 있는 시장이지요. 

그건 그렇다 치고, 한국을 다시 보면.. 
규모가 작은데도 불구하고 이 돈이 어떻게 퍼지고 있느냐고 하면, 
신기술을 위한 투자는 거의 없습니다. 

90% 이상은 기존 시스템의 추가 개발, 리플레이스 또는 
기존 확실한 기술을 이용한 서비스의 개발 정도이지요. 
위에서 얘기한 6%인 2400억의 아마도 1/10 정도는 
스타트업들이 자기 돈을 같이 부어서 연구하는 정도라고 보시면 거의 맞을 겁니다. 
아마 고개를 끄덕이실 분들 엄청 많으실 겁니다.

이 상태가 2000년대 초반부터 바뀌지 않았기 때문에
한국이 발전하는지는 
현장의 설계 및 컨설팅으로 큰 그림을 그리면서
시장을 계속 들이파 보았지만, 
제 눈엔 전혀 보이지 않았습니다. 

예를 들어, 

AI를 이용한 장해 예측 알고리즘을 얘기를 해도, 
모 금융기업의 엔지니어가 

"Logistic regression은 수학이지 AI가 아니지 않느냐 "

라는 말을 했습니다. 
여기서 제가 AI가 무엇인지 부터 설명한다 한들 
상대를 무시하는 발언이 될 거 같아서 그냥 넘어갔는데요.. 

다른 모 금융기업의 기술담당은

"AI가 해준다 한들 책임은 우리가 지지 않느냐. 97% 확률로 예측해도 사람이 봐야 하면 무슨 소용있냐" 

라는 이야기를 했습니다. 
이 분도 AI Labs의 랩장이었지요. 

이런 현실을 모르고 
계속 사람들은 국가가 밀어줘야 한다 라던가
대기업이 ...
라던가 하는 그냥 뜬구름 잡기식 얘기를 하면서 
10년 전과 다를바 없는 탁상공론을 하고
다시 술을 마시고 있습니다. 

정말로 한국의 현실을 정확하게 알고 계신 분들은 몇 분이나 계실까요?
그리고 그걸 실제로 위기 상황이라고 체감하시는 분들을 몇 분이나 계실까요?

제가 알고 있는 AI쪽에 그나마 경험을 많이 가지고 있는 몇몇 친구들은
누구나 아는 회사를 2년도 못버티고 전전하고 있습니다. 
다들 회사 일주 하고 싶은가봐요..

이유는 제대로 된 팀인줄 알고 들어갔는데 
팀장이 꼰대라서 나왔다.. 라던가
알지도 못하면서 무시당해서 나왔다.. 라던가
여기 있으면 자신도 뒤쳐질거 같아서 나왔다.. 라는 식입니다.

즉, 한국에서도 알아주는 요즘 뜨고 있는 자율주행이니 머신러닝이니 로봇이니 하는 누구나 얘기해도 알 법한 기업에 최소한 제가 인정한 사람들은 얼마 못 버티고 금방 나오고 있네요. 

누가 잘못인지 
어디서부터 고쳐야 할지는
전 아직 모르겠습니다.

단지 알 수 있는것은, 
실력을 갖추는 사람들은 
계속 한국을 떠나고 있다는 것이지요. 

얼마전 토론에서도 얘기했듯이
한국 기업이 일본에서 일본인의 의견으로 성공한들, 
미국 기업이 인도에서 한국인의 의견으로 성공한들...
한국으로는 수익이 들어오지 않습니다. 
한국의 발전을 위해서는 어떻게 해야 할까요?

그냥 포기하고 해외에서 외화를 벌어서 한국으로 송금하는 
1970년대 중동 파견나간 우리 아버지 세대의 외국인 노동자 같은 삶 밖에 없는걸까요?

참고 링크

4차 산업혁명의 정의에서 인사이트까지

데이터는 21세기 원유(by gartner)


giip :: Free mixed RPA orchestration tool! 

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQL처럼 느려터져 죽습니다.  양이 많은 DB에서 양이 적은 테이블을 가져와서 JOIN을 해야겠지요..  이렇게 해서 동접 10만명까지 커버를 했다 칩시다.  여기서 일반적인 동접의 기준도 서비스마

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만