기본 콘텐츠로 건너뛰기

상류공정 안건 미팅은 어떻게 하는걸까요? 일본it 감정인식 ai





많은 분들이 상류 공정에 대한 안건 영업 미팅에 대해서 궁금해 하실 것 같아서 
실전 안건 미팅이 있어서 소개를 해볼까 합니다. 

물론 이것역시 SES이기 때문에 사람 파견이지 
청부 안건은 아닙니다. 

그래도 전 청부든 SES든 동일한 자세로 진행을 합니다. 

안건 미팅이 있으면 가장 중요한 것은 
고객이 준 정보만으로 얼마나 고객의 페인포인트를 아느냐 입니다. 

하류공정이야 그 동안 경험한 것으로 
시키는대로 하면 되니까 
자신이 뭘 경험했는지에 대한 어필만 하면 됩니다. 

하지만 상류공정은 
단순히 자기 경험만 어필하면 고객은 
개개인의 어필을 바탕으로 자신들의 페인포인트를 커버할 수 있는지를 찾아야 하므로, 
많은 고민을 하게 됩니다. 

여기서 저의 영업 포인트인 사전 조사가 있습니다. 

일단 안건을 보겠습니다 

영업회사에서 준 내용입니다. 


클라우드 cti와 상대 서버간의 데이터 연계 프로젝트에서 udp와 tcp의 트랜스포트계 지식이 있으면 된다는 이야기 뿐인 아주 심플한 안건입니다. 

단가는 100~110만엔 이죠. 

여기서 여러분이 상류 공정 사람이라면 어떤 준비를 하실것인가요? 

제가 제일 먼저 하는 것은 경력 기술서의 수정입니다. 
네트워크 관련 이슈 해결 위주 경험으로 수정을 하는 것이지만, 
이번에는 영업 담당자에게 이 안건은 데이터 전송의 병목 해결 안건 같으니 진행해 달라고 했습니다. 

보통 UDP와 TCP지식에 대해서 물어보는 것이라면 대량 전송을 위해서 TCP를 쓰려니 CRC처리 때문에 느리고 UDP를 쓰려니 패킷 로스가 생기는게 대부분이죠. 
그러면 고객의 페인포인트는 패킷로스를 막고 고속 전송을, 
그리고 보안 통신을 하고 싶다는 이슈일 것입니다. 

이런 정도의 네트워크 지식만 있으면 이런 안건은 식은죽먹기 이죠. 

역시 그 내용이 맞는지 바로 영업미팅을 하자고 하네요. 
그래서 미팅을 진행했습니다. 

영업회사는 미팅의 중계역을 하면서 
어떻게 진행할지를 설명합니다. 
일본어 공부 겸 한 번 들어 봅시다. 

----

서비스 소개 음성 2개(영상)

----

사람의 발성이나 목소리 패턴 등을 ai가 인식해서 
콜센터 담당자가 받는 정신적 고통을 수치화 하여 
콜센터 담당자에게 계속 하면 안되겠다 판단되는 상황에 
중간에 전담 요원이 가로채서 해결해주고 콜센터 담당자의 정신적 케어를 지원하는 용도의 
서비스로 이미 6000개 이상의 회사에서 도입하고 있는 꽤 커지고 있는 서비스라고 합니다.

이렇게 보통 현재 상황 설명 후 
제 스킬이나 경험을 소개하는게 보통인데요.. 

저의 경우 여기서는 제 경험 중에서도 
고객이 요구하는 네트워크 퍼포먼스 분석 및 해결과 
대규모 네트워크 분산 처리 경험을 1분 정도 간단한 소개와 함께, 
오히려 고객의 페인포인트를 핀포인트로 짚어줬습니다. 

위에 CTI서비스라는 것은 
콜센터 관리 시스템을 이야기 하는것으로 
대부분 PBX라는 전화 중계기를 통해서 흐르는 음성 데이터의 처리를 이야기 합니다. 

그럼 CTI의 시스템 구조 및 데이터 병목 현상의 원인 등을 미리 조사하는게 좋은데요, 
예전부터 CTI시스템을 몇 번 설계한 경험이 있어서 그런거겠지 하고 저는 따로 조사는 안했습니다. 

가장 중요한 것은 CTI에서 받은 음성 데이터를 어디로 보내고 어디서 해석해서 해석된 데이터는 어디에 보관하는지가 중요한 것이지요. 
CTI장치에 가까운 곳에 서버를 놓고 해석된 데이터만 부르는 방법과, 
CTI에서 클라우드 서버로 데이터를 수집한 뒤에 분석후 모으는 방법, 
그리고 그냥 중앙 클라우드로 집적시키는 방법들이 있는데, 

인도 개발회사에서는 두리뭉실하게 
CPU, Memory, Network, PBX의 성능 문제가 있다 라고 말하더라구요.. 

-- 

여기서 대충 어떻게 해결 시도 중이라고 했지만, 
저의 경우 CPU Memory는 AI로 해석할테니 수집용과 분석용을 분산하거나, 
수집 및 분석을 MSA로 최소단위로 쪼개서 확장가능한 구조를 만들면 좋을 것 같다고 이야기 하고, 

일반적인 대량의 고객이 서버에 접속해서 내려받는 서비스와는 역으로 
대량의 유저 데이터를 집중해서 받는 구조를 짜야 한다고 지적하고 

네트워크는 프로토콜에 따라서 CDN을 쓰거나 역으로 MSA로 DNS round robin을 이용해서 받아주는 구조로 가져가는 방법도 있을 거라고 이야기를 해줬습니다. 

결국 고객이 지금 뭘 잘못하고 있는지를 표현해줘서 
이 안건은 현재 승인 된 상태입니다. 

이제 남은 것은 금액 교섭과 제가 할지 말지 판단만 남았지요. 

제가 일본어로 설명한 음성을 직접 들어보니 엉성하기 그지 없네요.. ^^;;;

하지만 가장 중요한 것은, 

일본어 표현의 풍부함 즉, 상황에 따른 단어의 선택이 중요하고, 
외국인들만 쓰는 표현이 아닌 일본인들만 쓰는 표현을 얼마나 잘 표현하느냐가 중요합니다. 
물론 저 역시 주의를 하지만 일본인이 아니구나 싶은 표현이 종종 나오네요;;

일본어의 표현 능력은 
이 사람이 상류공정에서의 고객과의 브릿징을 얼마나 잘할 수 있느냐를 검토할 때의 기준이 되고, 

대부분의 상류공정은 프로젝트의 페인포인트와 해결 방법 제시만 잘하면 거의 딸 수 있습니다. 

일본에서 서류 심사에서 떨어지지 않는한 한 번도 대면에서 떨어진 적 없는 저의 영업 방법이었구요, 

서류에서 떨어지지 않으려면 그에 적합한 스킬이 잘 적혀 있는지가 중요하기 때문에 
매 번 스킬시트를 변경해서 제안하지 않으면 이건 제약이 좀 있습니다. 

단지 안건 신청할 때마다 스킬 시트를 최대한 안건에 맞도록 첨가를 지속하게 되면 충분히 어디에는 내밀 수 있는 스킬시트가 나올 수 있습니다. 

경험이 부족해도 안건을 정확히 파악할 수 있는 능력을 키운다면 
충분히 여러분도 이 정도 안건을 따낼 수 있으리라 봅니다. 

안건 영업에 참고가 되셨으면 합니다.



giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQ...

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만...