기본 콘텐츠로 건너뛰기

감정인식AI의 인프라 제안 - 일본IT컨설턴트의 프로젝트 2회차




지난 번에 고객의 현재 상황 및 요건을 들었습니다. 

원래라면 분석에 2주를 잡긴 하지만, 이번은 아주 간단해서 바로 1차 제안을 세 종류 만들어 봤습니다. 

현재 개발사가 제안한 scaling에 대한 문제를 제기해야 겠지요.. 

우선 원래 시스템 중 문제가 있는 서버의 프로세스 구성입니다. 
하나의 VM에 Listener, Real time analyzer, Final Analyzer의 세 개가 돌고 모든 IP PBX의 스트리밍 데이터를 받아서 하나의 VM이 처리를 하고 있는 식이죠. 


이걸 분산하려고 하고 있습니다.

우선 개발사가 생각한 1안입니다. 


하나의 인스턴스에 Thread를 나누어 처리를 하려고 합니다. 하지만 같은 인스턴스다보니 CPU가 터지는 지금 상황에서는 Thread를 분리해봤자 분리된 Thread가 터져서 인스턴스가 뻗을 것 같네요. 

개발사가 제안한 2안 입니다. 


이건 두 개의 인스턴스로 나누어 왼쪽에 IP PBX에서 데이터를 받아 리얼타임으로 저장하고 CPU부하가 큰 Final analysis는 다른 인스턴스에서 땡겨서 처리하겠다는 발상인데요.. 아마 이번에 테스트한 50세션 동시 처리에는 먹힐 지도 모르겠습니다. 30정도에서 터졌으니까요.. 
하지만 이건 일시방편이지, 유저를 계속 늘려가는 서비스 입장에서는 오히려 왼쪽 입구에서 받는 트래픽에 그걸 모아서 오른쪽의 VM 복수개에 동시에 파일을 내보내면 트래픽 병목으로 전송 실패가 나겠죠. 
아마 700세션 전후에서 터질 것입니다. 

그래서 제가 이 내용을 기준으로 일반적인 제안을 했습니다. 


1안입니다. 
전형적인 Application Gateway에 VMSS설정으로 Application gateway가 알아서 분산하고 VMSS가 알아서 부하도에 따라 증가 시키는 방식이죠. 

장점은 Application Gateway에서 SSL을 관리하므로 SSL의 관리가 단순하고 편합니다. 그리고 모든 부하분산 룰 설정 및 장애 제외 등등의 기능을 모두 azure의 GUI에서 해결 가능하고 L7이기 때문에 입력값에 따른 세세한 분산이 가능합니다. domain별로 고객을 나누어 분산이라던가 DDoS방어 등의 설정도 체크박스 한 번에 가능하므로 엔지니어가 없어도 해결이 쉽지요. 대신 가격이 가장 비싼 구조 입니다. 

2안 입니다. 


가장 저렴하게 구성할 수 있는 버전이구요.. 
VMSS에 이미지를 넣고 확장 룰만 정하면 됩니다. 
그 대신 VMSS에서 추가된 서버들은 IP를 알 수가 없으니 domain으로 설정해서 dns에서 가져오게 해야 합니다. 여기서 vmss에서 모든 vm을 하나의 IP로 설정하거나 하는 여러가지 옵션들이 있는데, 자동 IP를 할당하면 그걸 dns에 넣는 방법도 있는 것 같습니다. 옵션들이 많은데 azure의 특징은 ip가 변하더라도 리소스 단위로 dns에 설정하거나 하는 기능들이 있어서 그걸 잘 활용해야 하구요, 변경에 대한 처리를 az cli로 scripting하거나 하는 복잡한 스크립팅 기술이 필요한 대신 VMSS설정 외에는 전부 개발자가 해결할 수 있는 방법입니다. 
DevOps를 직접 만들고 싶다거나 하는 사람들에게는 추천하는 방법이지요. 

3안입니다. 



이건 Traffic Manager라는 AWS의 Route53과 같은 DNS기반 로드밸런서를 사용하는 방법입니다. Traffic Manager는 원암(One Arm)방식으로 실제 트래픽이 가는게 아니기 때문에 수억회 리퀘스트가 나와도 큰 비용이 나가지 않는 대신 트래픽이 없기 때문에 패킷 분석이 불가능하여 L7레벨의 분리는 안됩니다. 
하지만 DNS가 못하는 Health check라던가 AWS의 Route53에서 못하는 Sticky등이 지원되므로 적은 가격에 글로벌 로드밸런싱도 되어서 추천할 만 합니다. 
부하 측정 및 확장은 VMSS에 맡기면 되므로 가성비로는 충분하지 않나 싶습니다. 

고객은 성능보다는 가격 경쟁력이 가장 중요하기 때문에, 
그나마 안정적인 3번 안을 기준으로 가고자 했지만, 전체 가격을 먼저 비교하고 싶다고 하여 다음번엔 각 안의 사이징 및 예산표를 만들어주고, 
3번 안으로 했을 때를 기준으로 테스트 플랜을 작성해 주기로 했습니다. 

그게 확정되면 개발팀과 논의해서 테스트 지원해주고, 
테스트에서 발생하는 개발 수정이나 병목이 있으면 해결해주어 
충분한 사이즈에서도 문제 없이 돌아가도록 해주면 제 할일은 끝이 나네요. 

이제 2주차인데 대충 정리가 되네요.. 
보통은 2주에 요건 분석, 4주 쯤에 제안인데, 고객도 벌써 거의 확정안이 나와서 시간에 여유가 생겨서 좋아하는 눈치 였습니다. 

그리고 제가 이번에는 앞단만 봐드리는 것이고, 이후 고객이 늘어나면 뒷단의 PostgreSQL의 병목이 예상되므로 그에 대한 대처 등도 고민이 생기면 계약 종료 후에라도 연락을 달라고 했습니다. 

약간 밀당 같은 것도 해야 좀더 오래 끌고 비용을 받을 수도 있으나, 
저의 경우는 일이 넘쳐나서 굳이 그렇게 하지 않고 확실하게 제 실력을 보여주어 계약이 끝나더라도 다시 찾을 수 있도록 하고 있습니다. 

실제로 이렇게 10년 이상 고객이 된 기업들이 지금의 저의 수입을 만들고 있으니까요.. 

구글에 다닌다고 자랑스러워 하는 것보다 
자기 자신을 브랜드화 하여
자기 자신의 이름에 자랑스러워 하는 분들이 늘어났으면 합니다. 



giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQ...

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만...