기본 콘텐츠로 건너뛰기

여러분은 정유회사가 될건가요? 석유왕이 되지 않고?


제가 2014년부터 부르짖었던 것이 있습니다. 
앞으로는 데이터 이다!
2014년에 Gartner가 

데이터는 21세기 원유

라고 설명을 했었거든요.
그 말인 즉,

데이터 보유자 = 석유왕


이라는 뜻입니다.
그리고 제 글 중에는 
원유라 불리는 데이터를 중요하다고만 하면서 
이상하게 SI사업만 하고 있는 사람들이 
한국인들이라는 경종을 울리기도 했습니다.

데이터를 모으려는게 아니라 
데이터 주시면 분석해 드릴께요.. 
라면 석유왕이 아니라 정유회사를 꿈꾸는거잖아요.. 

하지만, 미친X 취급만 받다가 
얼마전에 NIA에서 드디어 이런 내용이 나왔네요. 


□ 데이터는 4차 산업혁명을 견인하는 핵심 동력

o 데이터 기반의 혁신기업*들은 많은 고객으로부터 데이터를 수집․축적하고, 이를 활용하여 시장 혁신을 주도

* (IBM) 3억명 환자데이터 보유, (구글) 딥마인드는 환자 100만명 안구검사 기록 확보, (AirB&B) 8년간 축적 데이터 분석, (알리페이) 5억명의 스마트폰 결제정보를 매초 2천건씩 축적

ㅇ 新 경쟁원천인 데이터를 바탕으로 시장을 독과점하는 승자독식의 경쟁 환경에서 후발 주자의 시장 진입은 갈수록 어려워지는 구조

□ 데이터 패권 경쟁 본격화로 전략적 대응 시급

ㅇ 이미 주요국*은 미래 경쟁력을 좌우하는 데이터의 중요성을 인식, 데이터 경제 전략수립과 투자확대 등 데이터 패권 경쟁 본격 돌입

* (美)빅데이터R&D/’16, (EU)데이터경제/’17, (日)미래투자전략/’17, (中)빅데이터발전/’17

ㅇ 데이터는 제품ㆍ서비스의 경쟁력을 좌우하는 핵심요소로 데이터 산업 기반 조성 미흡 시, 미래 먹거리 창출 기회 상실 우려

* 세계 데이터 시장규모(IDC, ’17): (’17) 1,508억 달러 → (’20) 2,100억 달러

□ 국내는 데이터 구축‧유통‧활용 등 데이터 인프라 부족

ㅇ 양질의 풍부한 데이터 확보 및 활용 여부가 AI 기술력은 물론 국가 경쟁력에 직결되나, 국내 산업계는 데이터 부족*으로 어려움을 호소

* 국내 기업의 빅데이터 이용률 : 9.5% 수준(’18), 한국 빅데이터 활용 : 63개국 중 31위(’18)

ㅇ 데이터의 구축·유통·활용 등 가치사슬 전반에 걸쳐 폐쇄적 데이터 축적과 표준화·접근성 제약으로 全 주기에서의 혁신 미흡*

* 글로벌 100대 빅데이터 기술혁신 기업 중 국내 기업은 전무한 상황(美CRN社, ’18)


출처 및 사업 소개는 아래 링크에 있습니다.
https://www.nia.or.kr/site/nia_kor/ex/bbs/View.do?cbIdx=78336&bcIdx=20694&parentSeq=20694&fbclid=IwAR1PLaeGBhkfJQqPi65vtfWlM4Extu14SHrG_DpJTJQ2f9iwC8yUqJ_uEWk

그렇다면 이젠 무얼 해야지요?

데이터를 저장해야 합니다.
여러분들이 현재 버리고 있는 모든 것이 데이터 입니다. 
데이터를 버리지 않고 쥐고 있는 자에게는 기회가 있습니다. 

그리고 우리나라에서 이상하게 늘고 있는 
가짜 데이터 사이언티스트 
(진짜 의미로 모른채 데이터 분석만 하면서 
자기는 데이터 과학자라고 부르는 사람들을 일컬음)
들이 많습니다. 
이들은 데이터만 주면 
뭐든 분석해 준다고 합니다. 

이들은 계약서에는 언제나 
을로 자리 잡습니다. 
그렇다면 갑은 누구일까요?

그렇죠!
바로 데이터를 가진 여러분 들입니다!

지금도 실리콘밸리에 가면
사업을 설명할 수 있는 오픈된 공간이 많습니다. 
거기에는 데이터 분석전문가들이 즐비합니다. 
만약 데이터를 가지고 계시다면
가서 한 마디 해보셔요. 

" 나 이런이런 데이터 10년치 데이터 가지고 있는데..."

구름처럼 사람들이 몰려들 겁니다.

석유왕은 가만 있어도 정유회사가 몰려들 듯이
데이터만 가지고 있으면 
데이터 사이언티스트가 구름처럼 몰려듭니다. 

여러분은 데이터에 가격만 정하시면 됩니다.


이래도 
그냥 아이디어 하나 가지고 
경쟁자를 겁내하면서 
어떻게 죽일지만 고민하는
어디에나 있을 법한 
창업가가 될 건가요?

지금이라도 데이터를 수집하고 싶은데
어디서부터 손대야 할지 모른다면 
연락주세요. 

이러한 비즈니스의 구조(Architecture)를 짜드리겠습니다!



Do not login your server any more! 
Free server management tool! 

Subscribe and publish your links as a book with friends 
My Favorite Link Share 

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

[Classic ASP] Cookie가 삭제 안되는 문제

만든 쿠키가 삭제가 계속 안되서 여기저기 삽질을 했다. 모든 쿠키를 삭제하는 함수도 만들었다. Function CookieClear(cldomain) For Each cookie in Request.Cookies Response.Cookies(cookie).Domain = "." & cldomain Response.Cookies(cookie).Path = "/" Response.Cookies(cookie).Expires = DateAdd("d",-1,now()) Next End Function 그런데.. 안되서 계속 삽질하다가 하나 알았다.  littleworld.net littleworld.co.kr www.littleworld.net  의 모든 값을 지우려고 했으나.. 처음 만든 쿠키가 www.littleworld.net 인 관계로.. 처음에 www.littleworld.net 의 쿠키를 삭제 해야만 나머지가 지워졌다.. -ㅅ-;; 간단하지만 몰랐던 초보적인 사실.. ---- 누구나 쉽게 광고를! http://www.cashtalk.co.kr Free Infrastructure automation & management tool Global Infrastructure Integration Platform http://giip.littleworld.net Subscribe and publish your links as a book with friends  My Favorite Link Share http://link.littleworld.net

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만