기본 콘텐츠로 건너뛰기

비트코인(bitcoin)이나 이더리움(ethereum)같은 블록체인(blockchain)의 하드포크(hard folk)와 소프트포크(soft folk)의 기술적인 설명

가상화폐에서 요즘 이슈가 참 많은 것들이 
하드포크 
했다느니 하는 이야기 입니다.

그도 그럴 것이, 
BTC(비트코인, Bit Coin)의 하드포크로 
공짜 화폐가 1:1로 생겼는데 
그게 10%정도의 가치를 가졌으니 
공짜로 10%가 생긴 셈이었지요.

그런데 도대체 하드포크(Hard folk)니 
소프트포크(Soft folk)니 하는 것은 왜 하고,
어떠한 영향을 주는 것일까요?

블럭체인이 만들어져 가는 룰 중에 
일부의 보안 문제 또는 성능 문제로
블럭을 생성하는 구조가 변경된다든지 하는 경우가 발생하는데
이 때 두 가지를 선택할 수 있습니다.

1. 기존의 룰로 만들어진 블럭체인도 유효로 인정하는 방법
2. 기존의 룰은 유효하지 않고 신규 룰만 적용하는 방법.

여기서 1번을 소프트 포크라고 하고
2번을 하드포크라고 합니다.

소프트포크는 
기존 룰도 채용이 가능하므로 
서비스 정지 없이 소프트포크가 가능하고,
이 경우 두 가지의 룰을 모두 인정하게 되므로 
블럭의 구조상 용량이 커지기 쉽게 됩니다.

하드포크의 경우는 
모든 오래된 룰은 없애고 시작해야 하기 때문에 
일정 시간 서비스를 멈추고 룰 업데이트를 해야하는 
번거로움이 있습니다. 
2017년 BTC의 하드포크가 그 예이구요..
기존 룰을 인정안하는 대신에 
기존 룰을 독립적인 코인으로 독립시킬 수도 있지요.
이 때 떨어져 나온 것이

BCH(비트코인캐시, Bitcoin Cash)

입니다.
Segwit에서는 
기존 블럭 사이즈의 문제등을 개선한 방법을 
제안하였으나,
비트코인 마이너(채굴기, Miner)의 70%이상을 점유하고 있는 
Bitmain의 대표 우지한은
새로운 Segwit은 기존 장비로는 해결할 수 없기 때문에 
반대 입장을 표명했습니다.

때문에 기존 서비스를 유지하기 위해 
하드포크하면서 떨어져나와 
BCH라는 기존 룰을 가진 
새로운 코인 시장을 열었습니다.
소프트포크, 하드포크 모두 
전체적인 구조의 영향을 주기 때문에
이 때 대부분 기존 체인의 정리등을 하기 때문에 
블럭 길이가 줄어들어
마이닝 성능이 향상되기도 합니다.

마이닝 성능이 천천히 줄어드는 이유는 
블럭의 길이가 길어지면서
해싱하는 회수가 늘어나기 때문이라는 사실을 알겠지요?

마이닝이 사금을 모은다던가 
이상한 문제를 푼다거나 하는 애매한 설명은 
오히려 혼선을 줍니다.

정확히는 
거래가 일어나는 타이밍에 
거래에 기장된 이력을 
블럭체인(Block chain) 이라고 하고
이 이력에 조작이 없는지를 판단하기 위한 
해싱 알고리즘을 적용하는 것을 
마이닝이라고 합니다.

왜 이상한 용어를 붙였냐고 물어본다면..
왜 우리가 쓰는 마우스를 
마우스라고 이름을 지었는지도 궁금해야 겠지요..


아니면 
왜 개발언어를 커피이름인 자바로 지었는지도 
궁금해야 하구요.. ^^


Do not login your server any more!
Free server management tool!
http://giipweb.littleworld.net

Subscribe and publish your links as a book with friends 
My Favorite Link Share
http://link.littleworld.net

댓글

  1. 용어정리가 쏙쏙 정리가 되네요
    알찬정보네요

    답글삭제
  2. 작성자가 댓글을 삭제했습니다.

    답글삭제
  3. 암호화폐에서 암호화폐를 획득하는 행위를 마이닝(mining, 채굴)이라고 이름 지었는지 왜 궁금해 하면 안되나요?
    컴퓨터 마우스가 왜 마우스(mouse, 쥐)라고 이름 지었는지 궁금하지 않나요?
    컴퓨터 언어인 자바가 처음에는 오크(OAK)였다가 등록한 상표가 왜 자바인지 궁금하지 않나요?

    암튼 전 궁금하네요.

    답글삭제
    답글
    1. 궁금함은 좋은 경향이고 모든 사물에 궁금증을 가지는 것은 좋은 것입니다.

      단지 저와 다른 점은 누군가 이름을 지으면 그냥 그러려니 하고 지나가는 점이 다른게 아닐까요? 가끔은 왜 그렇게 지었을까 하고 궁금해 하기도 하지만, 그보다 더 궁금한게 많다보니 덜 찾게 되네요.. ^^

      삭제
    2. 저 역시 관점의 차이라고 인정합니다.

      사람이던 사물이던 이름은 정체성을 부여해주는 요소임을 부인하기 어려울 것 같네요. 그런 맥락에서 대상의 정체성을 한번쯤 찾아보는 것은 대상을 이해하는데 괜찮은 접근인 것 같아서 그런 의미에서 댓글을 남겨보았습니다.

      삭제

댓글 쓰기

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQL처럼 느려터져 죽습니다.  양이 많은 DB에서 양이 적은 테이블을 가져와서 JOIN을 해야겠지요..  이렇게 해서 동접 10만명까지 커버를 했다 칩시다.  여기서 일반적인 동접의 기준도 서비스마

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만