기본 콘텐츠로 건너뛰기

요즘은 아키텍트(Architect) 되기가 더욱 힘들어진 거 같아요.

얼마전 aws위에서 mongodb를 올려서 서비스를 구성한 구성표를 보았다. 

이 구성표를 만든 팀은 예전에 내가 도와준다고 했을 때 이미 많은 서비스를 mongodb를 이용해서 서비스 했다고 자만하던 팀이라 그냥 지켜보기로 했던 팀이었다. 

2Core/4GB의 mongos 2대가 서비스 헤더, 1대가 관리헤더
2Core/4GB의 mongoc 3대가 metadata, 3대가 로그의 metadata. 
4Core/16GB VM을 5대를 올려서 3대를 mongod를 올리고 2대를 서비스로그를 저장하도록 구성 했다. 

물론 세세한건 보지 않았지만, 
당연히 EBS가 30GB이니 30GB모두 하나의 shard로 하여 1 shard 3 replica 이지 않았을까?
안에서 추가로 쪼개기에는 EBS사이즈가 작으니..

개발 서버 포함 총 15대의 VM으로 구성된 예상비용은 월 약1200달러. 
이것을 26대로 늘리고 월 약 1100달러로 줄이는 설계를 보여줬다. 
그리고 성능은 기존의 약 6배. 비용으로 환산한다면 월 7200달러 어치의 성능을 1100달러로 보여준 것이다. 

AWS HW의 특성상 IOPS성능이 일반 HW보다 1/5 수준으로 떨어지는 것을 어떻게 메꿀 수 있는지가 중요하다. 특히나 EBS가 SSD라고 할지언정 물리적으로 연결되어 있는 디스크가 아닌 이상 Storage Network의 처리 성능이 가장큰 병목이 발생한다. (AWS 및 Storage를 Network로 연결하는 클라우드 아키텍쳐는 모두 같은 문제)

그리고 AWS의 특성상 1vCPU는 1Core가 아니다. 예전에는 1vCPU의 성능 수치가 있었지만 지속적인 하드웨어 추가로 인해 기존 하드웨어와의 CPU모델이 달라져 성능이 다르게 나오고 있어 이 지표는 사라졌다. 1vCPU의 성능이 얼마만큼 나오는지를 이해하여야 한다. 

그 다음으로 Virtualization의 성능(Para-virtualization, Full virtualization)에 따른 퍼포먼스 저하가 얼마나 일어나는지, Linux라는 OS를 쓸지 Windows라는 OS를 쓸지 등에 따라서 OS가 Emulate하는 HW의 성능 저하가 얼마나 일어날지에 대한 복합적인 성능 측정 능력도 필요하다. 예를 들어 Windows는 현재 Full Virtualization밖에 지원이 안되기 때문에 모든 HW는 약 4~8%의 성능 손실이 있는 반 면에 호환성이 좋지만, Linux 중에서 Para virtualization을 사용하는 경우(Full도 가능) Hyper visor를 거치지 않고 직접 OS가 HW를 핸들링하면서 성능 저하는 2%미만으로 줄일 수 있으나, OS가 다른 HW로 real-time migration(vMotion, xenMotion등)을 하는 경우 모든 HW의 드라이버를 가지고 있지 않으면 OS기동시 에러가 발생할 수 있는 운영상의 결점을 가지고 있다. 

더욱 성능을 향상시키기 위해서는 OS가 data를 encapsulation하여 NIC으로 전송하는 부분에서 최대한의 데이터를 넣기 위한 압축 방식이나 모자라게 던지지 않게 하기 위한 chunk의 단위 설정까지 들어가는 방법도 있지만, 여기까지 하기에는 OS를 설계할 수 있는 레벨을 요하기 때문에 이런게 있다는 얘기만 하고 넘어가겠다. 

Mongodb로 올렸을 때 mongos, mongoc, mongod의 각각의 성능면의 특징을 모르면 mongoc에 쓸데없는 고성능 VM을 제공한다거나 하는 설계 미스가 발생한다. 
또는 충분한 메모리를 살리지 못하고 shard의 배치 실패를 가져올 수도 있다. 
역으로 shard를 너무 오밀조밀하게 넣고 용량을 키웠다가 rebalance시에 발생하는 부하 때문에 서비스가 멈출 수도 있다. 
아니면 이번 처럼 PBM(Percona Backup for Mongo)같은 것을 올려서 mongod를 자꾸 죽여서 data fault를 만들 수도 있다. 
기본적으로 mongo등의 NoSQL은 대규모 로우데이터의 저장용등의 NoSQL에 맞는 용도로 써야 하는데, RDBMS처럼 설계하고 RDBMS처럼 사용하려고 많은 공수를 버리고, 결국 RDBMS처럼 백업을 걸다가 용량에 못이겨 서버가 터지는 현상도 만들 수 있다. 

그리고 위 처럼 용도에 따라 서버를 분리하면 데이터가 들어올 때 3배(아마도 replica 3이라서 1배일 듯), 로그 요청이 들어올 때 2배(아마도 replica 2로 1배 했을 듯). 만약 서버를 잘게 쪼개고 이를 다 통합하고 collection을 나누고 나눈 collection을 shard로 관리하게 되면 데이터가 들어올 때 16배, 이후 로그를 써도 16배의 성능이 나온다. 
옛날 RAID의 구조를 모르고 딴지 걸었던 SE도 비슷한 경우였다.
물론 mongos의 병목이 없다는 전제 등이 필요하지만 충분히 병목이 없다는 전제 하의 단순 계산이다. 

추가로 redis등을 활용하여 개발의 효율을 높이는 방법(뭔 소린지 모르시는 분들은 나중에 찾아보시면 됩니다)이라던가 서비스 성능을 높이는 방법 등, 알 수록 활용 가치가 높아지는 것들은 무수하게 많다. 

(이 이상 깊이 들어가면 글이 너무 길어지고 재미도 없으니 더 깊은 부분까지 원하는 사람들은 개인적인 질문을 받기로 하겠습니다)

같은 AWS라고 하더라도
AWS의 하드웨어적인 architecture와, 그 위에서 돌아가는 실제 SW의 구조, OS의 구조, 그리고 네트워킹 구조를 정확하게 알지 못하면 그만큼의 성능 손실 및 비용 손실로 이루어진다. 

하지만, 요즘 같은 클라우드시대가 도래하면서
더욱 경계가 애매해져 버린 이 영역들..
그러다보니 더욱 비용 대비 효율이 떨어지는 구조가 나오고 있다. 

물론 AWS를 효율적으로 쓰면 

기존 20%밖에 안쓰고 버리는 80%를 절감

할 수 있다.... 고 한다.

하지만, 내가 봐 왔던 어떤 기업도 
전통적인 설계 구조 그대로 AWS에 도입을 하지
클라우드 HW architecture를 이해하고 설계하는 사람은 보지 못했다. 
(물론 있겠지만)

결론을 말하자면 이제부터 중요해 지는 것은, 
단순히 한 분야의 전문가 보다는
가능한 넓은 분야를 깊이 알고 있는 전문가가 필요해졌다.
예전 같이 한 두개만 좀 한다고 전문가 대우를 받기가 어려워 진 것이다.

디지털 수요가 늘어남에 따라 
이러한 전문가는 더욱 수요만 늘고 공급은 따라가지 못하고 있다. 
이걸 돈으로 때우면서 서비스가 늘어나는 기업들.. 

아마존은 이걸 이미 알고 노렸던게 아닐까?


giip :: Free mixed RPA orchestration tool! 

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQ...

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만...