본문 바로가기
CS/네트워크

HTTP/1.0 ~ 3.0까지

by 성현0409 2025. 5. 20.

HTTP/1.0

HTTP/1.0은 기본적으로 한 연결당 하나의 요청을 처리하도록 설계되었습니다. 이는 RTT 증가를 불러오게 되었습니다.

서버로부터 파일을 가져올 때마다 TCP의 3-웨이 핸드셰이크를 계속해서 열어야 하기 때문에 RTT가 증가하는 단점이 있었습니다.

RTT

패킷이 목적지에 도달하고 나서 다시 출발지로 돌아오기까지 걸리는 시간이며 패킷 왕복 시간

RTT증가를 해결하기 위한 방안

매번 연결할 때마다 RTT가 증가하니 서버에 부담이 많이 가고 사용자 응답 시간이 길어졌습니다. 이를 해결하기 위해 이미지 스플리팅, 코드 압축, 이미지 Base64 인코딩을 사용하곤 했습니다.

이미지 스플리팅

많은 이미지를 다운로드받게 되면 과부하가 걸리기 때문에 많은 이미지가 합쳐 있는 하나의 이미지를 다운로드받고, 이를 기반으로 background-image의 position을 이용하여 이미지를 표기하는 방법입니다.

#icons>li>a {
    background-image: url("icons.png");
    width: 25px;
    display: inline-block;
    height: 25px;
    repeat: no-repeat;
}
#icons>li:nth-child(1)>a {
    background-position: 2px -8px;
}
#icons>li:nth-child(2)>a {
    background-position: -29px -8px;
}

앞의 코드처럼 하나의 이미지 background-image: url("icons.png");, background-position 등을 기반으로 이미지를 설정합니다.

코드 압축

코드 압축은 코드를 압축해서 개행 문자, 빈칸을 없애서 코드의 크기를 최소화하는 방법입니다.

const express = require('express')
const app = express()
const port = 3000
app.get('/', (req, res) => {
    res.send('Hello World!')
})

app.listen(port, () => {
    console.log(`Example app listening on port ${port}`)
})

앞의 코드를 다음과 같은 코드로 바꾸는 방법입니다.

const express=require("express"),app=express(),port=3e3;app.get("/",(e,p)=>{p.send("Hello World!")}),app.listen(3e3,()=>{console.log("Example app listening on port 3000")});

이미지 Base64 인코딩

이미지 파일을 64진법으로 이루어진 문자열로 인코딩하는 방법입니다. 이 방법을 사용하면 서버와의 연결을 열고 이미지에 대해 서버에 HTTP 요청을 할 필요가 없다는 장점이 있습니다. 하지만 Base64 문자열로 변환할 경우 37% 정도 크기가 더 커지는 단점이 있습니다.


HTTP/1.1

HTTP/1.0에서 발전한 것이 바로 HTTP/1.1입니다. 매번 TCP 연결을 하는 것이 아니라 한 번 TCP 초기화를 한 이후에 keep-alive라는 옵션으로 여러 개의 파일을 송수신할 수 있게 바뀌었습니다. 참고로 HTTP/1.0에서도 keep-alive가 있었지만 표준화가 되어 있지 않았고 HTTP/1.1부터 표준화가 되어 기본 옵션으로 설정되었습니다.

한 번 TCP 3-웨이 핸드셰이크가 발생하면 그다음부터 발생하지 않습니다. 하지만 문서 안에 포함된 다수의 리소스(이미지, css 파일, script 파일)를 처리하려면 요청할 리소스 개수에 비례해서 대기 시간이 길어지는 단점이 있습니다.

Pipelining

파이프 라이닝은 여러개의 요청을 보낼때 처음 요청이 응답될 때까지 기다리지 않고 바로 요청을 한꺼번에 보내는 것을 의미합니다. 즉, 여러개의 요청을 한꺼번에 보내서 응답을 받음으로서 대기시간을 줄이는 기술입니다.

  • keep-alive를 전제로 하며, 서버 간 요청의 응답속도를 개선시키기 위해 적용
  • 서버는 요청이 들어온 순서대로(FIFO) 응답을 반환한다.
  • 하지만 응답 순서를 지키기 위해 응답 처리를 미루기 때문에 Head Of Line Blocking 문제가 발생하여, 그래서 모던 브라우저들은 대부분 파이프라이닝을 사용하지 못하도록 막아 놓았다.
  • HTTP 2에서는 멀티플렉싱 알고리즘으로 대체되었다.

HTTP/1.1의 문제점

HOLB (Head Of Line Blocking)

위에서 소개한 파이프 라이닝은 어찌보면 정말 혁신적인 기술이지만, 보낸 요청 순서대로 응답을 받아야하는 규칙 부분에서 문제가 생기게 됩니다. 마치 FIFO(선입선출) 처럼 생각하면 되는데, 문제는 요청하는 데이터의 크기는 제각각 이기 때문에, 첫번째로 요청한 데이터가 용량이 큰 데이터라면, 두번째, 세번째 데이터가 아무리 빨리 처리되어도 우선순위 원칙에 따라 첫번째 데이터의 응답 속도가 늦어지면 후 순위에 있는 데이터 응답속도도 덩달아 늦어지게 되는 것입니다.

무거운 헤더 구조와 중복

http/1.1의 헤더에는 많은 메타정보들이 저장되어져 있습니다. 또한 해당 도메인에 설정된 cookie정보도 매 요청시 마다 헤더에 포함되어 전송되기 때문에 오히려 전송하려는 값보다 헤더 값이 더 큰 경우가 비일비재 하였습니다. 그리고 지속 커넥션 속에서 주고 받는 연속된 요청 데이터가 중복된 헤더값를 가지고 있는 경우가 많아 쓸데없는 메모리 자원도 낭비하게 되는 꼴이 되었습니다.

 


HTTP/2.0

HTTP/2는 SPDY 프로토콜에서 파생된 HTTP/1.x보다 지연 시간을 줄이고 응답 시간을 더 빠르게 할 수 있으며 멀티플렉싱, 헤더 압축, 서버 푸시, 요청의 우선순위 처리를 지원하는 프로토콜입니다.

멀티플렉싱

멀티플렉싱이란 여러 개의 스트림을 사용하여 송수신한다는 것입니다. 이를 통해 특정 스트림의 패킷이 손실되었다고 하더라도 해당 스트림에만 영향을 미치고 나머지 스트림은 멀쩡하게 동작할 수 있습니다.

이를 통해 단일 연결을 사용하여 병렬로 여러 요청을 받을 수 있고 응답을 줄 수 있습니다. 이렇게 되면 HTTP/1.x에서 발생하는 문제인 HOL Blocking을 해결할 수 있습니다.

헤더 압축

HTTP/1.x에는 크기가 큰 헤더라는 문제가 있었습니다.

이를 HTTP/2에서는 헤더 압축을 써서 해결하는데, 허프만 코딩 압축 알고리즘을 사용하는 HPACK 압축 형식을 가집니다.

만일 메세지 헤더에 중복값이 존재하는 경우, 위의 그림에서 Static / Dynamic Header Table 개념을 사용하여 중복 헤더를 검출하고, 중복된 헤더는 index값만 전송하고 중복되지 않은 Header 정보의 값은 호프만 인코딩(Huffman Encoding) 기법을 사용하는 HPACK 압축 방식으로 인코딩 처리 하여 전송하여, 데이터 전송 효율을 높였다고 보면 됩니다.

허프만 코딩(huffman coding)은 문자열을 문자 단위로 쪼개 빈도수를 세어 빈도가 높은 정보는 적은 비트 수를 사용하여 표현하고, 빈도가 낮은 정보는 비트 수를 많이 사용하여 표현해서 전체 데이터의 표현에 필요한 비트양을 줄이는 원리입니다.

서버 푸시

HTTP 2.0에서는 클라이언트의 요청에 대해 미래에 필요할것 같은 리소스를 똑똑하게 미리 보낼 수 있습니다. 예를 들어 클라이언트로부터 HTML 문서를 요청하는 하나의 HTTP 메세지를 받은 서버는 그 HTML 문서가 링크하여 사용하고 있는 이미지, CSS 파일, JS 파일 등의 리소스를 스스로 파악하여 클라이언트에게 미리 push해서 미리 브라우저의 캐시에 가져다 놓습니다. 즉, 서버는 요청하지도 않은 리소스를 미리 보내어 가까운 미래에 특정 개체가 필요할때 바로 사용 되도록 성능 향상을 이끌어 내는 것입니다. 그래서 클라이언트가 HTML 문서를 파싱해서 필요한 리소스를 다시 요청하여 발생하게 되는 트래픽과 회전 지연을 줄여준다는 장점이 있습니다.

Stream Prioritization

HTTP 메세지가 개별 바이너리 프레임으로 분할되고, 여러 프레임을 멀티플렉싱 할 수 있게 되면서 요청과 응답이 동시에 이루어져 비약적인 속도 향상이 되었습니다. 하지만 하나의 연결에 여러 요청과 응답이 뒤섞여 버려 패킷 순서가 엉망 징창이 되었다. 따라서 스트림들의 우선순위를 지정할 필요가 생겼는데, 클라이언트는 우선순위 지정 트리를 사용하여 스트림에 식별자를 설정함으로써 해결 하였습니다.

  • 각각의 스트림은 1-256 까지의 가중치를 갖음
  • 하나의 스트림은 다른 스트림에게 명확한 의존성을 갖음

HTTP/2.0의 문제점

여전한 RTT (Round Trip Time)

HTTP/1.1과 HTTP/2는 여전히 TCP를 사용하므로, 3-way 핸드셰이크로 인한 RTT 지연이 발생합니다..

결국 TCP 기반 통신 자체가 지연의 본질적인 원인입니다.

TCP 자체의 HOLB (Head Of Line Blocking)

HTTP/2는 멀티플렉싱으로 HTTP 레벨의 HOLB는 해결했지만, TCP 레벨의 HOLB는 여전히 존재합니다. 패킷 손실 시 재전송이 전체 흐름을 막아 성능 저하를 일으킵니다.

중개자 캡슐화 공격

HTTP/2는 헤더를 바이너리로 인코딩하므로 프록시가 HTTP/1.1로 변환 시 위조 가능성이 있습니다.

반대로 HTTP/1.1을 HTTP/2로 변환하는 과정에서는 해당 문제가 발생하지 않는다.

길다란 커넥션 유지로 인한 개인정보 누출 우려

HTTP 2.0은 기본적으로 성능을 위해 클라이언트와 서버 사이의 커넥션을 오래 유지하는 것을 염두에 두고 있습니다. 하지만 이것은 개인 정보의 유출에 악용될 가능성이 있습니다. 이는 HTTP/1.1에서의 Keep-Alive도 가지고 있는 문제이기도 합니다.


HTTP/3.0

HTTP/3은 HTTP/1.1 및 HTTP/2와 함께 World Wide Web에서 정보를 교환하는 데 사용되는 HTTP의 세 번째 버전입니다. TCP 위에서 돌아가는 HTTP/2와는 달리 HTTP/3은 QUIC이라는 계층 위에서 돌아가며, TCP 기반이 아닌 UDP 기반으로 돌아갑니다.

초기 연결 설정 시 지연 시간 감소

QUIC은 TCP를 사용하지 않기 때문에 통신을 시작할 때 번거로운 3-웨이 핸드셰이크 과정을 거치지 않아도 됩니다.

QUIC은 첫 연결 설정에 1-RTT만 소요됩니다. 클라이언트가 서버에 어떤 신호를 한 번 주고, 서버도 거기에 응답하기만 하면 바로 본 통신을 시작할 수 있다는 것이죠.

참고로 QUIC은 순방향 오류 수정 메커니즘(FEC, Forword Error Correction)이 적용되었습니다. 이는 전송한 패킷이 손실되었다면 수신 측에서 에러를 검출하고 수정하는 방식이며 열악한 네트워크 환경에서도 낮은 패킷 손실률을 자랑합니다.

왜 TCP가 아닌 UDP를 사용하는가?

TCP는 구조적인 한계로 인해 느릴 수밖에 없다

TCP는 비교적 단순했던 과거의 네트워크 환경을 기준으로 설계되어, 현재처럼 다수의 클라이언트와 서버가 동시에 통신하는 환경에는 적합하지 않습니다. 특히 모바일 기기처럼 네트워크 환경이 자주 바뀌는 상황에서는 TCP 연결이 끊어져 다시 재연결해야 하며, 패킷 손실 시 재전송으로 인해 HOLB(Head-of-Line Blocking) 문제가 발생합니다. 이러한 구조적인 한계는 HTTP/1.1뿐 아니라 HTTP/2에서도 여전히 존재합니다. 그래서 HTTP/3에서는 이러한 문제를 해결하고자 TCP 대신 UDP를 채택하게 되었습니다.

UDP는 신뢰성이 아예 없는 것이 아니라, 기본적으로 탑재하지 않았을 뿐

UDP는 TCP와 달리 핸드셰이크나 혼잡 제어 등의 기능이 없기 때문에 훨씬 빠르며, 필요한 신뢰성 기능은 애플리케이션 단에서 커스터마이징하여 구현할 수 있습니다. 즉, UDP는 단순하고 작습니다. 이러한 유연성 덕분에 UDP를 기반으로 하되 필요한 기능만 선택적으로 구현함으로써 HTTP/3는 빠르면서도 안정적인 통신이 가능하도록 설계되었습니다.

HTTP/3의 개선점

HTTP/3는 QUIC 프로토콜을 기반으로 하고 있으며, TCP 대신 UDP를 사용하여 다음과 같은 개선을 이루었습니다:

  • 독립 스트림 처리: 각 스트림이 서로 영향을 주지 않아 특정 스트림에서 문제가 생겨도 나머지는 정상적으로 처리됩니다.
  • 빠른 패킷 손실 탐지: QUIC는 패킷 번호 공간을 별도로 관리하여 손실이 생겨도 해당 스트림만 재전송하면 되므로 전체 지연을 줄입니다.
  • 강화된 멀티플렉싱: HTTP/2보다 더 유연하고 성능 좋은 병렬 처리가 가능합니다.
  • 기본 TLS 암호화: QUIC는 암호화가 기본 내장되어 있으며, 헤더까지 암호화되어 보안성이 향상되었습니다.
  • 네트워크 변경에도 연결 유지: QUIC는 Connection ID를 통해 IP가 바뀌더라도 연결을 유지할 수 있어, 와이파이 ↔ LTE 전환 시에도 끊김 없이 통신이 가능합니다.
  • 또한, 보안을 위해 네트워크 변경 시 Connection ID를 동적으로 교체하여 추적 가능성을 차단합니다.

HTTP/3의 우려점

기존 최적화 체계와 충돌 가능성

  • HTTP/1.1이나 HTTP/2 기반으로 도메인 분할(domain sharding), Prefetch 등의 최적화를 이미 적용한 기업은 QUIC의 멀티플렉싱 구조와 충돌이 생겨 성능이 저하될 수 있습니다.
  • Server Push 전환 여부와 같은 기술적 판단이 필요하며, 도입 전 충분한 성능 테스트가 요구됩니다.

암호화로 인한 네트워크 제어 어려움

  • QUIC은 헤더까지 암호화하므로, 네트워크 장비나 ISP가 트래픽 흐름을 파악하거나 제어하기 어렵습니다.
  • 예를 들어 ACK인지 재전송인지 알기 어렵고, RTT 측정도 까다로워집니다.

높은 리소스 및 CPU 사용

  • 패킷 단위 암호화는 기존 TLS-TCP보다 리소스를 많이 사용하며,
  • 특히 보급형 디바이스나 IoT 장치에서는 CPU 사용률이 높아 성능 저하배터리 문제가 발생할 수 있습니다.

UDP 기반의 보안 문제

  • QUIC은 UDP 기반이므로 비표준 포트 사용으로 인해 일부 네트워크 환경에서는 차단되거나 속도 제한을 받을 수 있습니다.
  • DDoS 공격 악용 가능성 등 보안 이슈도 있으며, 이를 방지하기 위한 초기 패킷 크기 제한(1200바이트), 3배 전송 제한 등의 프로토콜 규칙이 적용되고 있습니다.

요약 비교

항목 HTTP/1.1 HTTP/1.1 HTTP/3.0 (QUIC)
전송 방식 텍스트 기반 바이너리 프레이밍 바이너리 + UDP 기반 (QUIC)
병렬 처리 하나의 TCP 커넥션에서 직렬 처리 (파이프라이닝 지원하지만 HOLB 존재) 하나의 TCP 커넥션에서 멀티플렉싱 지원 (하지만 TCP HOLB 존재) UDP 위에서 멀티플렉싱 + 스트림 독립 처리로 HOLB 해결
HOL Blocking 매우 심함 일부 해결 (HTTP 계층만) 거의 완전 해결 (스트림 독립 처리)
헤더 압축 없음 HPACK (헤더 압축) QPACK (QUIC용 헤더 압축)
보안 선택 (TLS 1.2 권장) 선택 (TLS 1.2 이상) 기본 TLS 1.3 적용 + 헤더까지 암호화
속도 느림 개선됨 최고 속도, 지연시간 감소
연결 유지 TCP 기반, IP 변경 시 연결 끊김 동일 Connection ID로 IP 바뀌어도 연결 유지
도입 난이도 쉬움 중간 기존 시스템과 호환성 문제로 높음

https://inpa.tistory.com/entry/WEB-🌐-HTTP-20-통신-기술-이제는-확실히-이해하자#binay_framing_layer

https://inpa.tistory.com/entry/WEB-🌐-HTTP-09-HTTP-30-까지-알아보는-통신-기술?category=980052

https://www.yes24.com/product/goods/108887922

'CS > 네트워크' 카테고리의 다른 글

HTTP/HTTPS란  (0) 2025.02.10