기본 콘텐츠로 건너뛰기

AWS는 몇 년 다녀야 할까요? 아무도 알려주지 않는 연봉 구조의 비밀..

듣기 버전 : https://youtu.be/4F543vZqSi4

주변에 물어보니
생각보다 많은 사람들이
AWS의 SA가 되고 싶다거나 하는
이야기를 하는 사람들이 많네요.
그래서
실제 AWS에 다니는 사람에게서
얻은 정보를 기반으로 준비했습니다.

Aws는 몇 년 다녀야 할까요?

갑작스럽게
제 친척이 된 사람이 있습니다.
갑자기 가족이 되어서
대학을 포기하고 바로 취업을 하려고 하는데
그렇게 되면 최종 학력은
고졸이 되어버려서
한국에서의 취직에는 타격이 크지요.
이 상황에서
어떻게 하면 빠른 시간내에
궤도에 오를 수 있는지
제게 상담을 해서
물어봤죠..

아무리 어려워도 할 각오가 있냐고..
그 사람은 각오가 되어 있다고 했습니다.
그래서 추천을 해주었지요.

바로 오라클을 배우고 직업을 구하면
안정적으로 성장할 수 있을 거라고 했습니다.

그는 근성으로 2년을 국비지원 교육을 받고
오라클 업무를 전문적으로 하는 SI업체에 들어갔습니다.
SI업체는 빡시지만 초봉도 높고
많은 경험을 단시간에 배울 수 있어서 좋은 선택이라고 했습니다.

SI업체에서 4년 다니다 보니
오라클 본사에 취직 기회가 생겼는데,
아마도 그의 열심히 하는 모습을 본 오라클 본사 직원지 추천해 준 듯 합니다.

그 때 제가 오라클 본사로 들어가면
생각보다 현업을 배우는 것보다는
오라클 제품에 대해 더 깊이있게 배우고
그걸 기반으로 고객을 지원하는 업무가 많을거라고 했습니다.

때문에 오래 다닐 사람에게는 좋지만
평생 직장으로 삼을게 아니라면
5년을 넘기지 말고 전직하는 것을 추천 했습니다.
5년 정도면 다음 직장에서 오라클에 다녔다는 좋은 이력이 생기니까요.

그는 저의 조언을 참고로 오라클에서
오래 다니려고 들어갔으나
내부 정치나 자기가 원하는 기술업무가 점점 줄어드는 여러가지 상황 때문에
5년 정도까지 버티고 다시 옮기게 되었습니다.

그 떄 또 몇 가지 선택지 중에서 조언을 해줬는데,
그 중에 AWS에서도 입사 기회도 있었지요.
AWS에선 빡시지만 도움이 될테니
그 쪽으로 들어가면 괜찮을 거라 했는데요,
그 때 들었던 AWS의 시스템이 특이했습니다.

연봉은 오르지 않는데 첫 해부터 4년째까지 스톡옵션이 있대요..
그게 1년째가 제일 많고 점점 줄어든다고 합니다.
스톡 옵션을 포함하면 연봉이 1억이 넘지만,
스톡 옵션이 없어지는 5년째 부터는 1억 언더가 된다고 하네요.
물론 거기서도 직급이 높아지면 당연히 올라가겠지만,
철저하게 업무 처리량 베이스라서
지금도 노르마를 처리하느라 쉴틈이 없다고 합니다.

여기서 저는 급여 시스템을 보고
제프 아저씨의 뛰어난 사업 감각에 감탄을 금치 못했지요.

모두 아시다시피 AWS는 정말로 쓰기가 어렵게 되어 있습니다.
때문에 AWS에선 유저가 잘쓰게 하기 위해서는
많은 비용을 테크니컬 서포트 인력비용으로 쓰고 있거든요..

그런데 그 쪽으로 사람을 계속 뽑고 4년 정도 지나면
퇴사하도록 설계를 하면,
그 연봉이 마음에 안드는 사람이 퇴사를 해도 아마존이란 경력 덕분에
더 좋은 연봉으로 AWS를 사용하는 기업으로 가게 되죠..
그럼 그 사람이 들어간 환경에서는
AWS에서 서포트를 받을 일이 엄청나게 줄어있겠죠..
현직 아마존 사람이었으니 웬만한건 스스로 찾아서 해결할 수 있잖아요..

만약 그냥 아마존에 남는다는 선택을 해도
적은 연봉으로 굴려먹을 수 있으니

어느것을 선택해도 득이 되지요.

이런식으로 그 어려운 AWS의 세일즈의 큰 그림을 그렸다니!

하고 감탄을 했습니다.

물론 모든 AWS의 이야기가 아니고 제가 알고 있는 사람의 이야기 이므로,
다른 쪽으로 들어가면 연봉 테이블이 전혀 다를 수 있습니다.

AWS에서는 장점 중 하나가 영어 베이스의 정보를 검색하고,
직접 해결이 안되는 내용은 미국 등에 헬프 요청을 하여
영어로 대응해야 하므로
영어 실력이 빨리 향상되고,
어느 정도 영어가 되면
해외로 전근 신청이 가능하므로
쉽게 해외 이주도 꿈꿀 수 있다고 합니다.
이런 안정적으로 해외로 넘어가는 방법도 좋은 것 같더라구요..

만약 AWS의 SA를 꿈꾸시는 분들은
한국에서만의 업무를 생각하지 말고,
이런 방향성에 대해서도 참고를 하시기 바랍니다.



giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQ...

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만...