기본 콘텐츠로 건너뛰기

Polygon이 뜨는 이유, 그리고 Klaytn이 아직 못뜨는 이유.. 그리고 외국에서 본 한국 블록체인 기술

Klaytn네트워크에서 개발을 진행하다가 
Polygon으로 변경을 했습니다. 

두 네트워크에 접하면서의 경험담을 적어보겠습니다.  

Klaytn은 서드파티 개발 툴이 없는 것 같습니다. 
때문에 Klaytn의 공식 서비스인 KAS를 이용해서 개발을 진행해야 합니다. 
그리고 공식 KAS API문서가 잘 되어 있는 듯 하지만, 
대부분이 ERC 문서를 그대로 번역만 한 것이다 보니 한글이지만 한글을 이해하기 힘든 상황이 자주 있습니다. 
그리고 없는 내용은 오히려 ERC문서를 보고 실험해보기도 하게 됩니다. 

일단 Block chain을 이해한 사람이 알기 쉽게 설명했다기 보다는 
업무상 번역했다는 느낌이 강해서 한글을 읽으면서 팀원들끼리 해석으로 고민하는 케이스가 많았습니다. 

그리고 ERC에서 제공하는 기능들 중에 문서에 없는 내용에 대해 서포트에 질문을 보내면
API로는 제공하지 않기 때문에 직접 만들어 써야 한다는 답변을 받기도 했네요. 
API로 만들다가 다시 지원안하는 것은 직접 만들어야 한다는... 




필요최소한의 준비만 되어 있다는 느낌이 듭니다. 

결국 초심자들이 개발하기 힘들다는 내용에 콜라보 하는 기업들이 Klaytn을 지원 안하고 있는 경우가 많아서 다른 네트워크를 찾게 되었습니다. 

그래도 일본에서는 Polygon이 많아서 Polygon으로 찾아보았는데 서드파티 개발툴이 아주 좋은게 몇 개가 있고, 그 중에서 하나를 선택해서 디플로이 하니 바로 Metamask를 연결해주고 API없이 함수 호출해서 직접 API서버를 만들 수 있게 되어 있습니다. 




게다가 Typescript, Python, Go등등 다양한 언어로 제공해주고 있네요. 




단지 여기 역시 엄청 빨리 변화하는 버전업에는 따라가지 못해서 조금씩 오래된 내용이 있기도 합니다만, Klaytn만큼 지원 안되는게 있는 것이 아니라 solidity버전에 따른 차이 정도 입니다. 거의 최신 버전은 지원되고 있으니 걱정은 필요 없는 것 같습니다.




그리고 따라만 하면 될 수 있게 git repository를 제공해서 
바로 git clone후에 npx create로 서비스를 만들면 바로 metamask 가 연결 가능한 버튼이 있는 샘플이 들어있는 프로젝트가 생성됩니다. 

yarn start를 하면 바로 화면에서 wallet connect가 나와서 누르면 metamask에 연결되어 정보를 바로 확인할 수 있습니다. 

게다가 nft를 만들고 싶다면 nft생성 함수 샘플을 복사해서 붙여 넣으면 바로 결과를 웹에서 볼 수가 있고, 특정 기간부터 판매 가능한 nft-drop 등의 이벤트 설정도 한 줄로 할 수가 있네요. 

그 외에도 contract생성 및 호출 등등 아주 쉽게 되어 있고, WebUI에서 상황 확인 및 샘플 소스 확인이 바로 되기 때문에 쉽게 개발할 수가 있습니다. 
그리고 ERC로 contract를 만들려면 solidity파일에 자기가 모든 함수를 이해해서 함수를 정의해야 했으나, 여기서는 디폴트로 필요한 거의 모든 함수를 넣기 때문에 불필요한 것만 지워서 만들어도 되지만 그냥 그대로 쓰면 됩니다. 손댈 필요가 거의 없네요.. 
EVM을 사용할지 Solana를 사용할지, 그리고 다양한 wallet을 선택할 수 있고 등등 그냥 선택만 하면 필요한 모듈 설치가 되고 호출만 하면 됩니다.

이러한 서비스가 여러개가 있는데 polygon 공식 개발 툴은 처음에 시도 했다가 귀찮아서 포기.. 준비 작업이 무지 많이 필요합니다. 공식 툴은 예전에 truffle로 개발할 때와 비슷한 준비와 공부가 필요하네요..

초창기에는 openzeppelin이나 truffle을 사용해서 개발했었는데 그것보단 KAS API가 좀 편한 듯 하지만 실제 서비스에서 필요한 함수는 없는게 많은 기본적인 API만 주었는데.. 

이번에 사용한 Thirdweb이나 Bunzz는 잘 모르는 사람조차 쉽게 Contract와 NFT를 만드는 툴을 개발할 수가 있는 것 같습니다. 


블록체인으로 서비스를 개발한다는 것은 단순 연결 기술만을 얘기하는 것은 아닙니다.

블록체인의 한계등을 어떻게 활용하느냐, 에코시스템을 어떻게 하느냐 등은 기존 개발자가 생각하는 것이 아닌데 그 쪽의 전문가가 있어야 하는데 전부 개발자에게 떠맡겨지는 경우가 많은 듯 합니다. 

ERC-20을 만든다는 것은 화폐를 만든다는 것인데 화폐를 만들어본 사람이 거의 없는 것이 현실이므로 그 만큼의 공부와 연구를 해야 하는 것이 아닐까 싶지만, 너무 가볍게 생각하고 이렇게 하는게 당연한거야 하는 듣도보도 못한 기준이 있어서 저의 에코시스템의 철학을 쉽게 받아들이지 못하는 것을 많이 느꼈습니다. 

아직 한국 기업들의 블록체인 기술은 이 정도구나 싶네요. 
한국이 블록체인이 굉장히 발전되어 있다는 얘기를 참 많이 들었지만, 제가 원하는 만큼은 경험이 부족한 듯 합니다. 게다가 서비스 완성도 같은 것을 봐도 제대로 서비스를 할 수 있을까 싶은 내용들이 많네요.. 

좀더 많은 기술들이 공유되어 빨리 발전되었으면 하네요.. ^^


giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

책에서는 안 알려주는 대규모 트래픽을 위한 설계

음성 버전 :  https://www.youtube.com/watch?v=ZZlW6diG_XM 대규모 트래픽을 커버하는 첫 페이지 만드는 법..  보통 DB를 연결할 때 대규모 설계는 어떻게 하시나요?  잘 만들었다는 전제 하에 동접 3000명 이하는  어떤 DBMS를 사용해도 문제 없이 돌아갑니다.  여기서 이미 터졌다면 이 콘텐츠를 보기 전에 DB의 기초부터 보셔야 합니다.  아.. 개발 코드가 터졌다구요? 그럼 개발자를 때리셔야지요..  만약 3000명을 넘겼다면? 이제 Write/Read를 분리해서  1 CRUD + n개의 READ Replica를 만들겠죠?  보통 Read Replica는 5개가 최대라고 보시면 됩니다.  누가 연구한 자료가 있었는데...  6번째 레플리카를 만든느 순간 마스터가 되는 서버의 효율 저하 때문에  5번째에서 6번쨰로 올릴때의 성능이 급격히 줄어든다는 연구 결과가 있습니다.  때문에 Azure에서도 replica설정할 때 5대까지 밖에 설정 못하게 되어 있지요.  유저의 행동 패턴에 따라 다르긴 하지만,  1 CRUD + 5 Read Replica의 경우 동접 15000명 정도는 커버 합니다.  즉, 동접 15000명 에서 다시 터져서 저를 부르는 경우가 많지요..  이 때부터는  회원 DB, 게시판DB, 서비스DB, 과금 DB 등등 으로 성격, 서로의 연관도에 따라 나누기 시작합니다.  물리적으로 DB가 나눠지면 Join을 못하거나 Linked Table또는 LinkDB등의 연결자를 이용해서 JOIN이 되기도 합니다.  그에 따라 성능 차이가 생기지만 가장 중요한 포인트는  서로 다른 물리적 테이블의 JOIN은 인덱스를 타지 않는다!  라는 것입니다. 즉, JOIN할 테이블들을 최소한으로 만든 뒤에 JOIN을 걸지 않으면 NoSQL처럼 느려터져 죽습니다.  양이 많은 DB에서 양이 적은 테이블을 가져와서 JOIN을 해야겠지요..  이렇게 해서 동접 10만명까지 커버를 했다 칩시다.  여기서 일반적인 동접의 기준도 서비스마

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만