기본 콘텐츠로 건너뛰기

서버 정보들을 주기적으로 수집하기 - 무접속 서버 관리

서버 관리를 하다보면 주기적으로 또는 특정 상황마다 사소한 정보를 보기 위해 서버에 들어가서 확인을 해야하는 경우가 종종 발생한다.

요즘 대부분의 DevOps를 활용하면 이런 불편함이 해소되긴 하지만..

중요한 것은 DevOps를 준비하기 위해 다시 공부가 필요하고, 설정이 필요하고 노가다가 필요해진다.

적은 숫자의 서버를 관리하는 입장에서는 그럴 필요가 전혀 없음에도 불구하고 해야 하는 상황이 발생한다.

때문에 서버 관리의 방법론은 규모나 상황, 서비스 특징 등등에 따라 무한대의 경우의 수를 가지게 된다.

여기서 서버의 정보를 가져오는 두 가지 팁을 소개하려 한다.

하나는 서버에서 보내는 방법.
또 하나는 내가 가져오는 방법.

어짜피 노가다 아니냐고?
나의 궁극의 빈둥을 실현하기 위해 이 방법보다 편할 수 없는 방법을 소개하려 한다.
(블로그 글 조차 쓰기 귀찮아서 관리가 안되는...)

두 가지 모두 공통으로 필요한 것이 있다.

우선 github에 계정을 만들자.. (개발자라면 거의 가지고 있겠지만, 서버 관리자들은 안가지고 있는 케이스가 많으나 만들자!)
혹시 보안때문에 정보를 올릴 수 없다면 자체 서버에 gitlab을 설치해서 운영해도 똑같이 쓸 수 있다.

관리 서버가 수천대가 되면 그룹으로 관리하지 않으면 더욱 힘들어진다.
서비스나 용도 등에 맞추어 repository를 만든다.
이번에는 파일서버로 하겠다.

A, B 두 대의 서버를 gpfs용으로 사용하기로 한다.
gpfs가 뭐냐고? 내가 만든 용어다. 무시해라. (giip file system...)

1. 서버에서 보내는 방법.

서버에 github계정 설정을 해두면 로그인 정보 없이 명령을 날릴 수 있다.
우선 linux를 예로 들면.. root로 접속 후

echo "machine github.com">~/.netrc
echo "login ai@netbako.com">>~/.netrc
echo "password <password>">>~/.netrc

git config --global user.email "ai@netbako.com"
git config --global user.name "LowyAI"

라고 입력한다.
(https://github.com/LowyShin/KB-KnowledgeBaseHome/wiki/git)

root가 아니면 시스템 정보 취득이나 기타 작업등에 권한이 안되서 문제가 생길 수 있다. 하지만 대규모 서비스라면 root를 받을리 없으니 자기 권한 내에서 해결해라.

위 입력으로 ~/.netrc 에 이상한 것이 입력되었을 거다.
혹시 git이 설치 안되서 아래쪽 에러가 났다면 yum -y install git 으로 가볍게 설치한다.
ubuntu라서 안된다고? apt-get도 똑같이 사용가능하고 맥이라면 brew로도 git설치는 쉽다. 알아서 찾아서 해라!

준비 완료 되었으면 리포지터리를 받는다

git clone https://github.com/LowyShin/giip-svr-gpfs.git

당연히 giip-svr-gpfs는 내가 만든 레포지터리이니 권한없을 것이다. 직접 만든 리포지터리를 넣어라..

위의 설정이 제대로 되었다면 아이디 비번 따위는 물어보지 않는다.
단! 자기의 메인 계정 넣지말고 서버 관리 계정은 언제나 따로 만들고 collaborator로 등록해라.. 안그럼 나중에 망한다.

다 되었으면 아래 스크립트를 쉘로 만든다.

## sysstat.sh
#!/bin/bash

hn=`hostname`
logdt=`date '+%Y%m%d%H%M%S'`

mkdir $hn

df -h >$hn/$hn-df.txt
iostat >$hn/$hn-iostat.txt
netstat -an >$hn/$hn-netstat.txt
iptables -L >$hn/$hn-iptables.txt
crontab -l >$hn/$hn-crontab.txt

\cp -f /etc/my.cnf $hn/my.cnf

for i in `find $hn/ -mtime +15 -type f |grep -v .sh`; do rm -f $i ./; done

뭐냐면..
df -h : 디스크용량 체크
iostat : 디스크 IO부하 체크
netstat : 열려있는 포트 체크
iptables : iptable에 허용 설정 체크
crontab : 설정된 크론탭 내용 체크

덤으로 my.cnf 같은 설정 파일도 전부 git repository의 서버이름 디렉토리에 저장이 된다.

그리고 마지막은 15일 지난 파일은 삭제.. 왜냐하면 설정이 똑같으면 날짜가 안바뀌거나 불필요한 파일들이 남아있거나 하면 지우기 위해서이다.

이렇게 하고 crontab에 위 스크립트를 15분 또는 30분 단위로 실행하도록 설정한다.

0,15,30,45 * * * * cd /home/giip/giip-svr-gpfs/;bash --logic -c 'sh gitshautosync.sh'

이렇게 하면 15분마다 서버의 상태정보가 계속 갱신된다.
재밌는 것은 git의 특성상 파일 내용이 바뀌지 않으면 업데이트가 안된다.
무슨 얘기냐 하면..
github의 이력관리를 이용해서 위 파일들의 변경이력이 확인이 웹에서 가능해진다!
가끔 들어가서 볼 법한 파일 내용이나 로그 등등 모두 끌고 와서 웹에서 관리하자!
근데.. 100MB넘는 파일은 git에서 막고 있다. 원래는 소스 관리용이었으니..
(대용량 파일 관리 확장 모듈이 있지만.. 설정도 귀찮고...)


그리고 두 번째인 외부에서의 접속 방법..
보안이 철저한 기업들은 서버에서 github에 보내게 그냥 놔두지 않는다.

이 때 할 수 있는 것이 권한자의 리모트 접속체크!
그럼 사람이 하냐고?

난 게을러서 그따위는 하지 않는다.
모든건 로봇(?)에게 시킬 뿐.

UiPath (https://www.uipath.com)에 들어가봐라

요즘 autohotkey(https://autohotkey.com)보다 더 애용하고 있는 툴이다.
autohotkey는 저스펙에서도 쉽게 돌아가는 아주 훌륭한 툴이나 화면의 인식률 등의 미세 조정이 어렵고 모두 코드에 의존하는 단점이 있다.
허나, UiPath는 MS의 workflow foundation에서 제공한 Windows를 콘트롤 할 수 있는 프레임웍 위에서 개발되어 어떠한 해상도라도 UI를 Selector단위로 찝어서 콘트롤 할 수 있다는 것이 큰 메리트이다. (물론 한계도 있어서 image 도 활용하는 경우도 있지만)
이걸 활용해서 putty를 열고 서버에 접속 후 logging을 켜놓고 필요한 정보를 읽어와서 뿌리는 방법이 가장 편리하다.

이렇게 두 가지 방법으로 필요한 설정을 모두 해두면 서버에 접속하는 횟수는 획기적으로 줄어들고, 서버 설정의 변경 타이밍 캐치 및 원하는 시점으로의 복원 등도 편리해진다.

개발자만을 위한 툴이라고 생각하는 당신은 뇌가 이미 굳어있다.

상상은 무한한 가치를 만들 수 있다.



Do not login your server any more!
 giip :: Free server management tool!
 https://giipasp.azurewebsites.net/

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQ...

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만...