기본 콘텐츠로 건너뛰기

IT컨설턴트가 되는 두 가지 방법 및 실제 컨설팅 업무 사례

듣기 버전 : https://youtu.be/Qj7ibSDA7_Y



컨설턴트가 되는 두 가지 방법

구독자 분의 질문이 있어서 콘텐츠를 만들어 봅니다.

  1. 제대로 된 학력으로 컨설팅 펌에 들어가서 기초부터 배우기

제대로 FM이라고 봅니다.
장점은 처음부터 신입 컨설턴트로 바로 들어갈 수 있습니다.
하지만 경험이 제로이다보니 문서 작성 방법부터 배우고 거의 수 년간은
베테랑이 만든 문서의 이쁜이 작업이라고 불리는 베테랑이 대충 틀에 맞추어 적은 것을
와꾸에 맞추어 띄어쓰기, 줄바꾸기 및 배치 조절, 관련 이미지 가져오기 등등의
문서 편집 작업이 메인이 되구요,
회의 참여해서 회의록 작성 및 정리,
고객들에게 연락해서 필요 자료 받기 등
허드렛일을 한참을 하게 되지요.

그리고 어느 정도 레벨이 올라가면
컨설팅 보고서 작성이 다양한 부분으로 나뉘는데 그 중의 한 부분을 맡아가면서
조금씩 영역이 확장됩니다.

하지만 이 경우 기술베이스가 없는 경우가 많기 때문에
리포트 중에서 개념이나 환경조사 등의 기술과는 상관없는 내용을 담당하게 되겠지요..

이렇게 해도 컨설턴트로 자리를 잡을 수는 있으나,
제가 같이 들어간 프로젝트에서 타 컨설턴트들이
제가 문서 작성하는거 보니 제게 기술을 배우고 싶다는 표현을 많이 하더라구요..
제가 알고 있는 내용을 최대한 설명해주긴 했지만,
역시 깊이 있는 자료를 만들 때는 막히면서 답답해 하는게 있다보니,
이런 부분의 공부를 계속 해야 되지 않을까 싶습니다.

  1. 실전으로 배워서 컨설팅 프로젝트의 실무로 참여하기

실전으로 컨설팅 사업에 참여할 수 있습니다.
이 경우는 대부분 자기가 잘하는 업무를 문서화 하는 작업을 많이 하게 됩니다.
그래도 프로 컨설턴트의 문서력만큼은 나오지 않기 때문에
기술 위주의 텍스트를 많이 지적 받으면서 수정해서 제출하게 되면
그걸 기반으로 컨설턴트 들이 이쁘게 재작업을 해서 만들어줍니다.

만약 여기서 멈추지 않고,
내 문서가 어떻게 이쁘게 바뀌었는지를 열심히 보고 배우게 되면,
스스로 컨설턴트 없이 기술 분야의 문서를 만들 수 있게 되어
1인분의 컨설턴트로 참여가 가능하지요.

여기서 한국에서 컨설턴트의 꽃인 ISP사업을 예로 들어볼께요.
ISP는 Information Strategy Planning 이라고 해서 정보 전략 기획 이라는 사업입니다.
물론 SI개발자 분들이 가장 욕하는 사업이긴 합니다.
이는 예를 들어
전체 사업이 200억짜리 사업이라면
보통 20억 정도를 들여서 200억짜리 사업의 타당성 검토 및 예상 효과등을 리포트 받기 위해
컨설턴트를 부르게 됩니다.
그 결과를 보고 나머지 180억으로 사업을 할지 안할지 판단이 되기 때문에
돈이 헛되이 낭비 되는 것을 막기 위한 보험이지요.

하지만, 여기서 개발자들이 욕하는 이유는,
컨설팅은 어디까지나 사업 타당성을 검토하는 것인데,
거기서 만들어진 개념등은 모두 실 사업에서 구현이 되어야 합니다.
실제 있었던 것인데요..
제가 모 사업에 참여 했을 때 기술 부분은 저 혼자,
그리고 각 부문에 컨설턴트들이 붙어 총 6명이서 사업이 시작 되었습니다.

하지만 여기엔 이권이 존재하여
오라클에서 160억짜리 하드웨어를 납품을 하고 싶어 합니다.
즉, ISP사업에서 알박기를 하고 싶다는 내용을 제게 상담을 했지요.

저야 이미 정해진 예산의 활용 방법을 기술적으로 작성해야만 했기 때문에
거스르면 안됩니다.

그래서 경쟁사인 IBM, DELL 및 하드웨어 업체들이 무엇을 가지고 있고,
오라클에는 있는데 타사에는 없는 것들을 일일이 체크하면서
오라클만의 제품을 만들어야 했지요.
거기서 착안해서 만든 제가 만든 단어가 지금도 쓰이고 있는게 있는데요,
그게 바로 DGF, Data governance farm 이란 용어 입니다.
혹시 이 용어를 아시는 분들이라면
제가 참여했던 사업이랍니다. =ㅅ=;;
뭐 지금도 쓰고 있는지는 모르겠네요;;
이걸로 욕하시는 분들이 계시다면 죄송합니다. ^^;;
저도 먹고살자고 하는 것이다보니...

DGF의 개념은
오라클만 가지고 있는 기술 중의 하나인,
데이터가 들어오면 자동으로 판단해서 Hadoop이랑 ORACLE Exa에 구분해서 넣고,
필요에 따라서 SQL로 Hadoop에 있는 데이터까지 JOIN해서 표시하고,
머신러닝을 위해서 대규모 READ를 쉽게 지원해주는 기능이 있어서,
Data governance farm이라는 용어로
정형 및 비정형 데이터를 표준화 하여 자동으로 저장하는 데이터 팜
이라는 이들의 조합 상품을 만들었지요.

그리고 ISP 레포트와 함께 RFP를 고겍에게 제출 했는데,
거기에서는 DGF를 제공가능할 것 이라는 전제를 넣었습니다.
당연히 DGF가 뭐하는 넘인지를 아는 사람은 오라클 사람과 저 뿐이라서
어느 업체가 들어가든 DGF를 찾을 것이고,
오라클은 당연히 자기네가 가지고 있다고 하면서 제안을 해서
사업을 수주하겠지요..
가격도 예산에 맞추어 160억원으로 책정했구요..

아.. 너무 샜네요.. 기밀을 말한 것 같아서 괜찮으려나;;

아뭏든 이렇게 ISP에서는 기술 검증을 위한
샘플 하드웨어와 기술의 샘플이 구현 가능한 업체에게 외주를 맡겨서
실제 데이터를 머신러닝한 결과도 일부 보여주면서
사업이 완성되었을 때의 샘플을 보여줄 수가 있습니다.

그 사업이 성공하기 위한 필요 기술, 하드웨어 등등을 모두 상세히 기술한
RFP를 기반으로 SI업체는 그대로 완성을 해야 완수로 치기 때문에
컨설턴트가 말도 안되는 기술들을 넣어버리면
결국 개발자들이 우리 컨설턴트를 욕하면서
이를 갈고 비슷하게 구현하게 되지요.

이렇게 컨설턴트는
고객의 니즈를 구현할 수 있는 기술적인 근거,
구체적인 예산,
개발 회사에게 요구할 요구사항들을 모두 정리해야 합니다.
그 속에 비 IT 컨설턴트들은
이 사업의 타당성,
사회의 흐름에 맞는지,
시장에서의 효과예측,
시장 사이즈등 다양한 요소를 분석해서
사업 타당성도 문서로 해야하지요.
때문에 IT전문가만으로는 ISP사업은 성립되지 않습니다.

IT컨설턴트는 사업을 기술로 구현할 때
어떤 컴퍼넌트를 사용하고 어떤 하드웨어 위에
어떤 기술로 구현을 하고
현재 고객 데이터가 어떻게 변할지
캐패시티 플래닝을 하고,
그게 5년 뒤 추가 사업 또는 재개발까지
버틸 수 있는 하드웨어를 제안해야 하지요.
그리고 데이터 안정성이 어떻게 유지될 수 있는지
그 안정성을 숫자로 나타내야 하구요,
비상시에 어떻게 안전을 확보할 수 있는지
그리고 데이터 센터의 장애 상황에서도
서비스를 유지할 수 있는 방안등
다각도에서의 서비스 유지를 위한 기술적인 제안들이 필요합니다.

제가 이 사업에서 문서로 표기한 기술들을 간단히 이야기 하자면,

ML을 사용했을 떄 고객 데이터 사이즈에 맞는 필요 CPU, Memory사용량
ML로 인한 데이터 확장량 및 ML전용 머신으로의 데이터 전송 방안
ML의 일시 데이터 저장 및 결과 저장, 그리고 활용을 위한 재생성 데이터의 5년 추이를 계산한 캐패시티 플래닝
하드웨어 적인 데이터 안정성을 위한 모든 RAID구성의 장단점 및 스토리지 단위 이중화 방안, 그 비용의 적정성
네트워크의 사이징 및 병목 요소 확인, 해결 방안 및 네트워크 장애 해결 방안을 IX단위에서의 기술
DR센터 구축 방안 및 DR센터의 최소 필요 하드웨어
데이터 타입별 필요 hadoop영역 사이즈 및 oracle영역 사이즈를 5년간 증가분까지 계산
4000만DAU 기반 일평균 데이터 사용량 및 서버 리소스 사용량 분석
Hadoop의 replica 개수별 안정성 및 성능 예측 및 최적화
unix 시스템과 linux시스템의 성능 저하 및 라이선스 비교 및 최적화 방안
1.76PB 짜리의 대규모 데이터 시스템이다보니 느슨한 동기 기능인 CDP(Continous Data Protection)에 대한 다양한 기술적 해결 방법 및 제품과 그 특징 비교 등등..
....

이야기 하자니 끝도 없네요..
원래라면 이런 기술별 전문가들을 불러서 10명 이상 팀으로 들어가는게 정상인데요..
저는 전부 저혼자 해결 가능해서 그만큼 받고 들어갔지요..
그래서 컨설팅 업체도 예산이 충분히 저렴하게 되었고, 저도 제가 커버한 만큼 많이 받아서 좋았습니다.

물론 혼자서 이거 전부 다 해야 한다는게 아니고
각각의 전문가들이 붙어서 ISP사업을 하는 것이므로
너무 걱정하지마시기 바랍니다.

그래도 컨설팅의 겉핥기 정도는 되지 않았나요?

경험을 기반으로 재밌는 이야기를 재미없게 풀어드렸습니다!


giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQ...

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만...