기본 콘텐츠로 건너뛰기

소비자 구매패턴 맵(Consumer Journey Map)에 인공지능(AI)을 이용한 SEO기법

Consumer journey map(소비자 여행 지도) 이란 것이 있습니다.


사람들이 검색을 통해서 인터넷을 여행하는 목적을 나누어 유저의 패턴을 카테고라이징 하는 방법론 입니다.

업종마다 컨수머 저니 맵은 다르게 잡아야 합니다. 

Decide > Travel > Experience > Return

으로 유저들의 단계에 따른 소비 방향이 있기도 하지만

Physical evidence > Customer actions > Onstage actions > Backstage actions > Supporting processes

로 나뉘기도 합니다.

그 밖에

Awareness > Consideration > Purchase > Onboarding > Advocacy

로 정의하는 곳도 있습니다. 
이렇게 제품 및 서비스의 특성에 따른 유저의 행동패턴과 스텝이 달라지게 됩니다. 

예를 들어 내가 휴대폰을 사고 싶을 때 iPhone으로검색하는 사람은 iPhone을 사고자 하는 사람이기 때문에 다른 경쟁사가 그 고객을 뺏어갈 수가 없습니다. 

하지만 “유투버용 휴대폰” 같은 식으로 특정 브랜드를 지칭하지 않는 단어들이 수천만 가지가 돌고 있지만 이들을 카테고라이즈 하지 않으면 구매하려는 고객을 잡을 수가 없습니다. 

만약 유저의 입력 키워드가 “휴대폰 동영상 편집 방법” 같은 Onboarding관련 키워드였다면 이미 구매를 지난 유저이기 때문에 대상이 되지 않습니다. 

실제 구매를 원하는 페이지라면 Consideration부터 접근을 해야하고, 미래 고객을 위해서 이미지 향상을 위한 홈페이지를 운영한다면 Awareness관련 키워드로 접근을 시켜야 합니다. 

그렇다면 이 키워드를 어떻게 찾고 어떻게 넣어야 검색어의 상위에 올라갈 수 있을까요?

검색엔진은 보통 2주에 한 번씩 어뷰저를 막고 데이터 정리를 위해 알고리즘을 조금씩 바꾼다고 합니다.(정확한 근거는 없지만 업계사람들이 일반적으로 얘기하는 주기임)

그래서 2주가 지나면 위에 올라간 페이지도 떨어지기도 합니다. 

그렇다면 원리를 알면 계속 올라갈까요?

아마도 내부자가 아닌 이상 그럴 수는 없을 것입니다.

그래서 새로운 방법을 연구하고 있습니다. 

딥러닝은 과정은 모르지만 결론을 알고 학습을 시키면 테스터는 결론에 얼마나 적합한지 알 수 있습니다. 

수천만 키워드를 카테고라이즈 하고 각 카테고리별 검색엔진의 결과를 역산하는 기법으로 페이지를 가이드하는 방법론입니다. 

이렇게 하면 아무리 검색엔진이 로직을 바꾸어도 그에 맞추어 페이지만 잘 갱신해주면 언제나 컨수머의 원하는 스텝에서 보여주는 페이지를 만들 수 있습니다. 

기존의 SEO에서 메타태그를 잘 만들면 끝 하는 식은 이미 구식입니다. 

머신러닝은 미래를 바꿀 수 있습니다. 


giip :: Control all Robots and Devices! Free inter-RPA orchestration tool!
https://giipasp.azurewebsites.net/

댓글

이 블로그의 인기 게시물

Alter table 에서 modify 와 change 의 차이 :: SQL Server

두 개의 차이를 모르는 경우가 많아서 정리합니다.  modify는 필드의 속성값을 바꿀때 사용하구요.. change는 필드명을 바꿀떄 사용합니다.  alter table tbbs modify bNote varchar(2000) NULL; alter table tbbs change bNoteOrg bNoteNew varchar(2000) NULL; change에는 원래 필드와 바꾸고 싶은 필드명을 넣어서 필드명을 바꾸는 것이죠~ 더 많은 SQL Server 팁을 보려면  https://github.com/LowyShin/KnowledgeBase/tree/master/wiki/SQL-Server giip :: Control all Robots and Devices! Free inter-RPA orchestration tool! https://giipasp.azurewebsites.net/

[Classic ASP] Cookie가 삭제 안되는 문제

만든 쿠키가 삭제가 계속 안되서 여기저기 삽질을 했다. 모든 쿠키를 삭제하는 함수도 만들었다. Function CookieClear(cldomain) For Each cookie in Request.Cookies Response.Cookies(cookie).Domain = "." & cldomain Response.Cookies(cookie).Path = "/" Response.Cookies(cookie).Expires = DateAdd("d",-1,now()) Next End Function 그런데.. 안되서 계속 삽질하다가 하나 알았다.  littleworld.net littleworld.co.kr www.littleworld.net  의 모든 값을 지우려고 했으나.. 처음 만든 쿠키가 www.littleworld.net 인 관계로.. 처음에 www.littleworld.net 의 쿠키를 삭제 해야만 나머지가 지워졌다.. -ㅅ-;; 간단하지만 몰랐던 초보적인 사실.. ---- 누구나 쉽게 광고를! http://www.cashtalk.co.kr Free Infrastructure automation & management tool Global Infrastructure Integration Platform http://giip.littleworld.net Subscribe and publish your links as a book with friends  My Favorite Link Share http://link.littleworld.net

BI의 궁극판! Apache Drill을 써보자!

사실 Apache Drill 은 BI(Business Intelligence)라고 부르는 것 보다는 단순 데이터 연결 엔진이다. https://drill.apache.org/ 하지만 내가 왜 극찬을 하느냐면.. DBA로서 항상 문제가 되어왔던게, 이기종 데이터의 변환이나 처리였다. 포맷을 맞추는데 엄청난 시간이 걸리고, 데이터 임포트 실패가 무수하게 나고.. 한 번 잘못 데이터를 추출하면 다시 조정, 변환, 추출하는데 시간이 많이 걸린다. 그런데! Apache Drill은 그냥 RDB를 CSV랑 연결해서 조인해서 통계를 낼 수 있다. 그것도 표준 SQL을 사용하여! 예를 들어, CSV의 세 번째 컬럼이 price 이고, 물건의 판매이력을 PG사에서 CSV로 출력 받았다. 우리 DB와의 검증을 위해서는 수동으로 Import를 한 뒤에 포맷이 안맞아 잘리는 데이터가 있다면 다시 맞춰주고, 재 임포트를 수십 번, 그리고 나서 겨우 들어간 데이터를 조인하여 빠진 데이터를 분간한다. 숫자가 적다면 개발자가 개발로 처리할 수도 있지만, 건수가 하루에 300만건 짜리라면.. 한 달 온 파일은 9천만 건이다. 프로그램으로 고작 처리하는 것이 초당 500건. 거의 20만초, 에러 없이 약 56시간.. 에러가 생기면 다시 56시간.. ㅠㅡㅠ 이런게 현실이기 때문에 쿼리 말고는 방법이 없다. apache drill 의 진면목을 보자! 이번에는 좀 범용 적인 MySQL DB와 붙여 보자. . 난 이번에는 Mac에서 작업을 했기 때문에 그냥 다운 받아서 풀었음.. https://drill.apache.org/download/ 여기서 자기 OS에 맞는 버전을 받아서 설치하시길.. 압축을 풀고 나면 MySQL 커넥터를 붙여야 한다. https://dev.mysql.com/downloads/connector/j/5.1.html 여기서 다운로드 이런 커넥터 들을 붙일 때마다 콘피그를 수정해 줘야 하지만, 몇 번만