기본 콘텐츠로 건너뛰기

LLM 서비스에서 HTTPS, SSE, WebSocket: 무엇을 언제 써야 하나

LLM 서비스의 통신은 겉보기엔 “요청 보내고 응답 받는 API”지만, 실제로는 다음 요구가 겹칩니다.

  • 체감 속도(TTFT): 첫 토큰을 빨리 보여주고 싶다

  • 긴 응답 시간: 수 초~수십 초 동안 응답이 이어진다

  • 취소/중단: 생성 중 cancel이 자주 필요하다(비용과 UX)

  • 이벤트: tool-call, progress, usage, error 같은 상태 이벤트를 흘려야 한다

  • 대규모 동시성: 연결 유지 비용, LB idle timeout, 재연결 폭주 등 운영 이슈

여기서 흔히 후보로 올라오는 게:

  • 일반 HTTPS(요청-응답)

  • SSE(Server-Sent Events, 서버→클라 스트리밍)

  • WebSocket(양방향 지속 연결)

중요한 포인트 하나: SSE와 WebSocket도 결국 TLS 위에서 동작합니다. 즉 “HTTPS vs SSE vs WebSocket” 비교는 엄밀히 말해
(A) 일반 HTTPS 요청-응답 vs (B) HTTPS 위 SSE 스트림 vs (C) TLS 위 WebSocket(wss) 비교로 보면 됩니다.


1) 세 가지의 성격을 한 문장으로 정리

방식한 줄 정의LLM에 잘 맞는 상황
일반 HTTPS(요청-응답)“보내고, 끝나면 한 번에 받기”짧은 응답 / 최대 처리량 / 운영 단순
SSE“요청 1번 → 서버가 이벤트/토큰을 계속 흘려줌(단방향)”토큰 스트리밍 UX / 상태 이벤트
WebSocket“하나의 연결로 양방향 메시지 계속 주고받기”세션형 에이전트/실시간 상호작용

2) LLM 통신에서 중요한 평가 기준

LLM 통신은 “RPS(초당 요청 수)”보다 아래가 더 중요해지는 순간이 많습니다.

  • 동시 요청(활성 생성) 수 = 평균 생성 시간 × 유입률

  • 연결 유지 비용 = 동시 연결 수 × (FD/메모리/버퍼/keepalive)

  • 재연결 폭주: 장애나 네트워크 흔들림에서 reconnect storm

  • 취소 전파: 사용자가 취소하면 추론을 실제로 멈춰 비용 절감 가능?


3) 기능/운영/성능 관점 비교표

3-1. 기능 관점(LLM UX/프로토콜 설계)

항목일반 HTTPSSSEWebSocket
토큰 스트리밍가능(청크)하나 환경별 난이도↑매우 적합(표준 event-stream)적합
이벤트 타입 분리(token/tool/progress)앱이 직접 포맷 정의event/data 프레임으로 깔끔메시지 타입 정의로 깔끔
클라→서버 실시간 입력요청마다 전송별도 HTTP 필요같은 연결로 가능
취소(cancel)별도 cancel API/연결끊김 감지연결 끊기면 감지 쉬움 + cancel API도 쉬움메시지로 cancel 즉시 가능
재연결/이어받기앱 레벨 구현자동 재연결 + Last-Event-ID 패턴앱 레벨 구현

핵심 요약

  • SSE의 고유 장점은 “서버→클라 스트리밍의 표준화 + 재연결 패턴”에 있습니다.

  • “클라→서버 입력이 많다”가 핵심이면 SSE는 별도 HTTP를 붙여야 하므로 WebSocket이 더 자연스러워질 가능성이 큽니다.


3-2. 운영 관점(대규모에서 터지는 지점)

항목일반 HTTPSSSEWebSocket
LB/프록시 친화성최상대체로 양호(버퍼링/idle 주의)환경에 따라 까다로움(업그레이드/idle)
연결 유지 비용낮음(요청 짧으면)높음(롱리빙 연결)높음(롱리빙 연결)
장애 시 영향제한적재연결 폭주 관리 필요재연결 폭주 + 세션 상태 관리 필요
구현 난이도낮음중간중~상

4) “SSE는 별도 HTTP가 필요하면 HTTP랑 뭐가 다르냐?”에 대한 답

맞습니다. 클라→서버를 지속적으로 고빈도로 보내야 하는 앱이라면 SSE는 “2채널(업로드=HTTP, 다운로드=SSE)”이 되어 HTTP와 차이가 줄고, 동기화(세션ID/순서/중복) 부담이 생깁니다.

그럼에도 LLM에서 SSE가 선택되는 이유는 보통 이겁니다.

  1. LLM은 대부분 다운스트림(서버→클라) 토큰 스트리밍이 핵심이다

  2. 업스트림(클라→서버)은 대개 저빈도(send/cancel/regenerate 정도)다

  3. SSE는 이벤트 스트림 표준이라 클라이언트/중간장비에서 “스트리밍 응답”을 다루기가 상대적으로 낫다

  4. 끊김에 대해 자동 재연결 + 이어받기 패턴이 설계하기 쉽다

즉 **LLM의 트래픽 비대칭(업로드 1회, 다운로드 길게)**에 SSE가 잘 맞습니다.


5) 규모별 추천: 1천~1천만 동시 사용자

아래 표에서 “동시 사용자”는 **동시에 LLM 결과를 기다리는 사용자(활성 세션)**로 해석하면 실무 감각과 맞습니다.
(동시 “접속”과 동시 “추론”은 다를 수 있지만, 통신 설계는 보통 활성 세션 기준으로 고민합니다.)

5-1. 추천 전략(요약표)

동시사용자추천 1순위SSE/WS 사용 방식이유(통신 관점)
1,000일반 HTTPS + (옵션) SSE스트리밍 필요하면 SSE 전면 도입 가능운영 단순, UX 개선도 부담 적음
10,000HTTPS + SSE스트리밍 UX가 중요하면 SSE “기본” 가능이 구간까진 튜닝으로 충분히 감당
100,000비동기 잡(HTTPS 접수) + 상태조회(HTTPS) + SSE는 선별“지금 화면 보고 있는” 활성 세션만 SSE10만 롱리빙 연결은 가능해도 운영 난이도 급상승(재연결 폭주/idle/FD/버퍼)
1,000,000비동기 잡 중심 + 결과 pull(HTTPS) + 푸시 최소SSE/WS는 극소수(프리미엄/콘솔)통신만으로도 큰 시스템이 됨. 스트리밍은 선택지에서 빠짐
10,000,000비동기 잡 + 캐시/재사용 + 강한 제한SSE/WS는 사실상 금지(특수 케이스만)1천만 동시 스트리밍은 “스트리밍 플랫폼”을 운영하는 수준

6) 실무에서 가장 잘 먹히는 “혼합 패턴”

규모가 커질수록 “한 가지 프로토콜로 통일”보다 역할 분리가 강해집니다.

6-1. 10만+에서 현실적인 표준 패턴

목적통신엔드포인트 예
요청 접수(큐잉/레이트리밋)HTTPS POSTPOST /llm/jobsjob_id
상태/결과 조회(저비용 pull)HTTPS GETGET /llm/jobs/{id}
스트리밍(UX 필요한 소수 세션)SSEGET /llm/stream/{id}
취소/컨트롤HTTPS POSTPOST /llm/jobs/{id}/cancel

왜 이게 강하냐?

  • 대다수 트래픽은 짧은 HTTPS로 흡수 → 고RPS/운영 단순

  • 스트리밍은 **“지금 보고 있는 사용자”**에게만 제공 → 동시 연결 폭발 억제

  • cancel은 HTTP로도 충분히 빠름(고빈도가 아닌 경우가 대부분)

6-2. WebSocket은 어디에 쓰는 게 맞나?

WebSocket은 “LLM 채팅”에 무조건 좋은 게 아니라, 아래 케이스에서 진가가 납니다.

  • 에이전트/음성/실시간 조종 등 양방향 고빈도가 핵심

  • 하나의 세션에서 여러 종류의 메시지(입력/토큰/툴콜/상태/취소)를 단일 연결로 정교하게 다루고 싶을 때

  • 운영 복잡도를 감수하고도 “세션형 제품” 가치가 큰 경우


7) 체크리스트: 대규모에서 통신이 무너지는 흔한 이유

7-1. SSE/WS 공통

  • Idle timeout: LB/프록시에서 유휴로 판단해 끊김 → keepalive/ping 필요

  • 버퍼링: 중간 장비가 스트림을 모아서 한 번에 보내 UX가 망가짐 → 버퍼링 설정 점검

  • 재연결 폭주: 장애 후 동시에 재연결 → 지수 백오프, jitter, 토큰 버킷형 제한

7-2. LLM 특화

  • 취소가 추론 중단으로 이어지지 않음 → 비용 폭발 (cancel을 “진짜 stop”으로 연결)

  • 큐잉 전략 없음 → 10만에서 바로 붕괴 (접수/대기/완료를 분리해야 함)


최종 결론

  • 1천~1만: “HTTPS + SSE 스트리밍”이 가장 균형 좋다

  • 10만: “HTTPS(접수/조회) + SSE(선별 스트리밍)”로 역할을 분리하는 게 최적

  • 100만~1000만: “비동기 잡 중심(HTTPS) + 캐시/제한 + 스트리밍 최소화”가 현실적인 유일해에 가깝다

  • WebSocket은 “LLM 세션형 상호작용”이 본질일 때만 적극 추천 (그 외엔 운영비가 더 큼)


giip :: Control all Robots and Devices! Free inter-RPA orchestration tool!
https://giip.littleworld.net/
Littleworld Service Hub 
Lord of the Lords : turn base war simulation game 

댓글

이 블로그의 인기 게시물

일본 두바퀴 여행(바이크 편)

영상버전 : https://youtu.be/P3vC17iVu1I 이번에는 일본으로 넘어와서 일본 종주하시는 바이커들을 위한 정보입니다.  일본에서의 2륜의 정의가 면허와 도로교통법이 조금씩 다르다고 합니다.  그래도 그렇게 크게 신경쓸 건 없으니 딱 세 종류로 말씀 드릴께요.  50cc는 원동기 1종이라고 하여 3차선 이상 교차로에서 우회전, 한국에선 좌회전 같이 크게 도는 것이지요..  이게 불가능합니다.  직진 신호로 넘어간 뒤에 방향을 틀고 다시 직진으로 두번 꺾어 가야 하구요,  두 명이 타면 안됩니다.  그리고 맨 가장자리 길로만 가야해서 애매하게 끝에서 두 번째 차선만 직진인 곳들이 있어서 난감할 때가 있지요. 그런데에 직진하면 걸리는 곳이 있다고 합니다. 어느 정도까지 걸리고 안걸리고는 정확히는 모르지만,  직좌 마크가 아닌 좌회전 마크만 있는 곳이 은근히 많으니 조심해야 하겠더라구요.  최고 시속도 30km를 넘기면 안되어 천천히 달려야 합니다.  아뭏든 제약이 엄청나게 많으므로 60cc이상을 가져오시거나 렌트 하시는 것을 추천하구요,  125cc미만은 겐츠키 2종이라고 하여 두 명이 타도 되고, 3차선 이상에서 우회전이 가능합니다.  상당히 제약이 풀리는 대신 고속도로를 탈 수가 없지요.  만약 국도로 천천히 올라오신다면 125cc미만으로도 충분합니다.  실제로 일본인 바이커들 중에서도 국도 종주하는 모습을 많이 볼 수 있구요,  도심에 가면 125cc미만까지만 주차 가능한 바이크 주차장도 꽤 많기 때문에 도심용으로는 메리트가 큰 것 같습니다.  뭐, 125cc대는 곳에 큰 바이크를 대는 경우도 자주 보는데, 아무도 뭐라 안하긴 합니다.  그도 그럴 것이, 일본의 바이크 등록대수는 1031만대 인데도 바이크 전용 주차장은 턱없이 부족하다고 합니다. 바이크 주차장이 저렴하기 때문에 웬만한 ...

AI에게 존댓말로 질문한다고 AI가 더 자세히 대답해 주지 않습니다! 프롬프트의 뜬소문과 실제. 잘못알고 있는 프롬프트 이야기

영상버전 :  https://youtu.be/rLwhVUIXaQU 어디선가 기사가 있어서 읽다가 코멘트를 단 게 있습니다.  프롬프트 엔지니어링으로 인터넷 강의를 하시는 분 같은데요..  이름에 Phd라고 적혀있으니 어딘가의 박사님 이신가 봅니다.  그 분의 글에 이런게 있더라구요.. 한국어는 맥락에 크게 의존하는 ‘고맥락 언어’입니다. LLM에 그대로 입력하면 종종 의도가 왜곡되거나 핵심이 누락됩니다. 저는 영어로 프롬프트를 작성하지만, 한국어만 해야하는 모델을 사용할 때는 다음과 같은 방법을 사용합니다. --- 중략 --- ✔️ 존댓말(–습니다) vs 반말(–해요) 중 하나 선택.  Deferential form '-습니다'를 사용하면 openAI 모델은 답을 더 길고 상세하게 합니다.  … 여기서 존대말을 사용하면 AI모델은 답을 더 길고 상세하게 합니다. 라고 적혀 있네요..  그랬더니 이 분을 지지하는 댓글에서 chatgpt에게 같은 내용을 물어본 결과를 적었더라구요..  ChatGPT-4o에게 확인해보았습니다: ”한국어를 사용할 때 존댓말로 요청하면, 당신은 좀 더 나은 답을 주신다고 들었습니다. 사실입니까?“ 아주 날카로운 질문이십니다. **“한국어로 존댓말을 쓰면 더 좋은 답을 받는다”**는 말은 부분적으로 사실입니다. ⸻ ✅ 왜 그렇게 느껴질까요?  1. 존댓말은 명확하고 완곡한 문장 구조를 유도합니다.  • 예: 반말: “해줘” → 목적이 불분명하거나 애매할 수 있음 존댓말: “이 내용을 정리해 주시겠어요?” → 요청의 방향이 명확  2. 프롬프트가 더 구체적이고 정중해지면 → 모델이 더 신중하고 완성도 있는 답변을 생성하려는 경향이 있습니다.  3. ‘질문하는 사람의 태도’를 고려한 최적화된 언어 생성이 이뤄집니다.  • 존댓말 = 더 포멀한 상황 → 더 논리적이고 근거 중심의 응답이 생성됨 ⸻ ❗ 하지만 반말도 충분히 잘 작동...

니가 플랫폼(Platform)을 아니?

이번에는 2015년에 썼던 글을 다시 한 번 정리하려고 합니다.  언제나 이야기 하듯이 단어에 대해 누구에게나 쉽게 설명하지 못하면 그건 그 단어를 아는게 아닙니다.  여러분도 이 단어에 대해 비 IT이든 전문가 이든 설명해 줄 수 있는지 한 번 생각해 보시기 바랍니다.  플랫폼에 대해서 이야기를 하다보면 되묻고 싶은 이야기다. 요즘 개발자들 사이에서.. 또는 서비스 기획자들 사이에서 "플랫폼"이란 단어는 필수어가 되었다. 그런데 개발자들 만이 아니라, 기획자, 경영진까지 플랫폼은 필수이다.  웃긴건..  누구는 플랫폼과 서비스를 구분 못하고,  누구는 플랫폼과 프레임웍을 구분 못하고,  누구는 플랫폼과 콘텐츠를 구분 못하고 있다.  이번에는 플랫폼과 서비스를 구분해 보고자 한다.  그런 사람들끼리 이야기하다가 플랫폼이란 단어를 사용하는 사람들에게 물어본다. "플랫폼이 뭔가요?" 누군가 대답한다. "아직도 플랫폼을 몰라요?" 그럼 이렇게 되묻는다. "네.. 제가 잘 몰라서요.. 좀 알려주시겠어요?" 상대방은 IT시스템 어쩌고 하면서 횡설수설한다.. 얼마전 TV에서 플랫폼전문가가 요즘 IT쪽에 도는 플랫폼에 대해서 이야기 한다고 보라고 권장해주었다. TV를 찾아서 보았다. 플랫폼의 정의에 대해서는 나름 이야기를 했다. "수요자와 공급자를 연결해주는 매개체" 그리고 카카오톡을 성공한 플랫폼이라고 했다. 어짜피 성공한 사업에 이름을 붙이는 것은 쉽다. 성공한 주식의 과거를 분석하는게 쉽듯이.. 하지만 성공하지 못한 사업, 그리고 지금 이것이 플랫폼인지 알 수 있는 사람은 몇 안될 것이다. 단어의 의미를 한 번 다시 생각해보자. 그럼 플랫폼은 언제 시작했을까? 18세기후반 부터 19세기에 걸쳐서 약 100년정도를 산업혁명이라고 불렀다. 산업 혁명에 대한 자세한 이야기는 별도 코너로 만들었습니다.  음성 :  https://y...