기본 콘텐츠로 건너뛰기

블록체인(가상화폐) 탈중앙화에 대한 잘못된 인식

가상화폐 에코시스템(생태계) 설계의 장에서 몇가지 이야기가 오갔다.

요즘 일본에서는 스테이블 코인의 알고리즘 트레이딩을 못하게 하는 움직임이 있다.

물론 모 토큰 때문에 일어난 이야기지만, 근본적인 철학은 없이 주변에 어떠니까 하는 이야기에 너무 흔들리는 느낌이 강하다.

탈중앙화가 된 근본원인은
중앙은행이 소비자를 속이면서 권력을 휘둘렀기 때문에 그걸 막기 위해 모든 트랜잭션을 공개하여 어느 누구도 속일 수 없게 하기 위함이다.
하지만 내가 만났던 모든 블록체인 (소위)전문가는 코인(토큰)의 가치 변화에 손을 대면 탈중앙화가 아니라는 이야기를 한다. 
그 얘기를 듣고 

그럼 거래소에서 몰래 장난질 치면서 조정하는 것은 이미 탈중앙화가 아니게 된 거 아닌가요?

라는 질문에 대답을 못하곤 한다.
내가 여기에 남긴 많은 글들은 한 단어의 뿌리에서 그게 어떤 의미로 해석을 해야 하고 어떻게 받아들어야 하는지를 설명하는 게 많다. 

이번 내용 역시 나의 논리이지만 많은 곳에서 의견을 듣고 정리한 내용이다. 

블록체인이 가져야 하는 탈중앙화는

1. 총발행량과 유통을 투명하게 해야 한다. 

물론 이번에 문제가 생겼던 토큰역시 자체 네트워크에서 보면 볼 수 있었으나 거래소들이 발행자의 신고만 믿고 체크하지 못한 책임이 크다. 블록체인은 지갑의 주인이 누구인지는 모르나 모든 거래가 투명하게 공개되어 있기 때문에 역추적하면 누구의 지갑인지 대충 알 수 있다. 따라서 발행한 토큰에 장난을 칠 수 없다는 장점을 가지고 있다. 

2. 통화 안정을 위해서는 발행자가 책임을 가지고 관리해야 한다. 

이렇게 하면 탈중앙화가 아니지 않느냐라는 질문을 많이 받는다. 앞서 언급한 것과 같이 탈중앙화는 기존 시중은행이 지켜야할 담보를 장난쳐서 소비자에게 피해를 가중시켜서 생긴 것이다. 그렇다고 연방준비은행이 통화 안정을 방관하지 않는다. 통화를 발행한 자는 책임을 지고 통화 안정에 힘을 써야 한다. 
1/99까지 떨어진 토큰이라도 발행자가 그걸 다시 회수해주었다면 그렇게 떨어진 채가 아니지 않았을까? 준비금을 다른곳에 썼거나 추락하는 가치에 발행자 조차 자기 재산의 안전을 위해 발행한 토큰을 버렸기 때문이다. 
발행자에 대한 책임감이 없게 되면 언제 짐바붸가 될지 모른다. 

3. 발행자가 통화안정을 위해 개입하는 것이 좋다. 

가상화폐 하면 많이들 생각하는게 수십배 벌었다 또는 99% 하락했다 같은 믿을 수 없는 사태가 종종 일어나기 때문에 도박같은 생각으로 참여하려는 사람들이 많다. 
가상화폐는 언제부터 도박이 되었을까?
발행자는 폐해를 없애기 위해서 안정을 취해야 한다. 즉, 일정 이하 수준으로 떨어지면 준비금을 이용해 매수를 해야 하고 일정 이상으로 올라가면 매각을 하여 안정화를 시켜야 한다. 
이렇게 하면 투자자들은 떠날 것이라고 하는 사람도 있었다. 
최소한 내가 설계한 블록체인 에코시스템에서는 도박 중독자는 배제할 것이기 때문에 떠나는 것을 오히려 환영한다. 정당한 투자로 안정적인 수익을 얻고자 하는 사람들만 남으면 블록체인에 대한 불신감도 사라질 것이라 생각된다. 
그리고 개입하게 되면 소비자들이 싫어하는 것은 당연히 발행자가 이득을 보는 구조이기 때문이다. 
내가 설계한 모든 에코시스템은 보유자가 이득보는 시스템이다. 
통화 안정에 개입할 수록 발행자가 이득을 보는데 그렇게 쌓인 준비금이 필수 준비금을 넘어서면 다시 보유자에게 높은 가격으로 매입하여 안정을 취하기 때문이다. 때론 민팅으로 PoS같이 배분해줄 수도 있지만 오래 가진 사람일 수록 많은 이득을 주기 위한 구조를 짜는것이 나의 지론이기 때문에 PoS보다는 순차적 매수를 사용하고 있다. 


아직까지 많은 블록체인 개발자 또는 사업자가 금융관련자가 없었기 때문에 완전히 초기의 월스트리트를 보는 것같다. 숨겨진 많은 폐해들이 현재 블록체인 서비스위에 보이고 있다. 

토큰을 발행한다는 것은 단순히 소비자의 돈을 먹고 튀는 것이 아닌 시장 안정의 책임을 동반한다.
이런 막중한 책임감을 가진 블록체인 서비스가 지속적으로 나왔으면 좋겠다. 



giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQ...

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만...