[Network] Overview
네트워크란 노드(node)와 링크(link)가 서로 연결되어 있으며 리소스를 공유하는 집합
노드란 서버, 라우터, 스위치 등 네트워크 장치
링크란 유선, 무선
처리량과 지연 시간
'좋은' 네트워크란 많은 처리량을 처리할 수 있으며 지연 시간이 짧고 장애 빈도가 적으며 좋은 보안을 갖춘 네트워크
처리량(throughput)
처리량이란 링크 내에서 성공적으로 전달된 데이터의 양으로, 보통 얼만큼의 트래픽을 처리했는지를 나타낸다.
트래픽이란 특정 시점에 링크 내에 흐르는 데이터의 양이다.
많은 트래픽을 처리한다 = 많은 처리량을 가진다
단위로는 bps(bits per second)를 쓰는데, 초당 전송 또는 수신되는 비트 수이다.
처리량은 사용자들이 많이 접속할 때마다 커지는 트래픽, 네트워크 장치 간의 대역폭, 네트워크 중간에 발생하는 에러, 장치 하드웨어 스펙에 영향을 받는다.
대역폭이란 주어진 시간 동안 네트워크 연결을 통해 흐를 수 있는 최대 비트 수이다.
지연 시간(latency)
지연 시간이란 요청이 처리되는 시간으로, 어떤 메시지가 두 장치를 왕복하는 데 걸린 시간이다.
지연 시간은 매체 타입(유선, 무선), 패킷 크기, 라우터의 패킷 처리 시간에 영향을 받는다.
네트워크 토폴로지와 병목 현상
네트워크 토폴로지(network topology)
네트워크 토폴로지란 노드와 링크가 어떻게 배치되어 있는지에 대한 방식이자 연결 형태
- 트리 토폴로지
계층형 토폴로지라고 하며 트리 형태로 배치된 네트워크 구성
노드의 추가, 삭제가 쉬우며 특정 노드에 트래픽이 집중될 때 하위 노드에 영향을 끼칠 수 있다.
- 버스 토폴로지
중앙 통신 회선 하나에 여러 개의 노드가 연결되어 공유하는 네트워크 구성
근거리 통신망(LAN)에 사용한다.
설치 비용이 적고 신뢰성이 우수하며 중앙 통신 회선에 노드를 추가하거나 삭제하기 쉽지만, 스푸핑이 가능하다.
스푸핑
LAN 상에서 송신부의 패킷을 송신과 관련 없는 다른 호스트에 가지 않도록 하는 스위칭 기능을 마비시키거나 속여서 특정 노드에 해당 패킷이 오도록 처리하는 것
즉, 스푸핑을 적용하면 올바르게 수신부로 가야 할 패킷이 악의적인 노드에 전달된다.
- 스타(star, 성형) 토폴로지
중앙에 있는 노드에 모두 연결된 네트워크 구성
노드를 추가하거나 에러를 탐지하기 쉽고 패킷의 충돌 가능성이 적다. 또한, 쉽게 에러를 발견할 수 있고 장애 노드가 중앙 노드가 아닐 경우 다른 노드에 영향을 끼치는 것이 적다. 그러나 중앙 노드에 장애가 발생하면 전체 네트워크를 사용할 수 없고 설치 비용이 고가이다.
- 링형 토폴로지
각각의 노드가 양 옆의 두 노드와 연결하여 전체적으로 고리처럼 하나의 연속된 길을 통해 통신을 하는 망 구성 방식
데이터는 노드에서 노드로 이동한다. 노드 수가 증가되어도 손실이 거의 없고 충돌이 발생할 가능성이 적고 노드의 고장 발견을 쉽게 찾을 수 있다. 하지만 네트워크 구성 변경이 어렵고 회선에 장애가 발생하면 전체 네트워크에 영향을 끼친다.
- 메시 토폴로지
망형 토폴로지라고도 하며 그물망처럼 연결되어 있는 구조
한 단말 장치에 장애가 발생해도 여러 개의 경로가 존재하므로 네트워크를 계속 사용할 수 있고 트래픽 분산 처리가 가능하다. 하지만 노드 추가가 어렵고 구축 비용과 운용 비용이 고가이다.
병목 현상
병목 현상이란 전체 시스템의 성능이나 용량이 하나의 구성 요소로 인해 제한을 받는 현상이다.
토폴로지가 중요한 이유는병목 현상을 찾을 때 중요한 기준이 되기 때문이다.
예를 들어 병목 현상이 일어나서 사용자가 서비스를 이용할 때 지연 시간이 길게 발생하고 있다고 해보자. 이 때 네트워크 토폴로지를 확인하고 회선을 추가하는 등의 조치로 병목 현상을 해결할 수 있다.
네트워크 분류
- LAN(Local Area Network)
근거리 통신망, 같은 건물이나 캠퍼스 같은 좁은 공간에서 운영된다.
전송 속도가 빠르고 혼잡하지 않다.
- MAN(Metropolitan Area Network)
대도시 지역 네트워크, 도시 같은 넓은 지역에서 운영된다.
전송 속도가 평균이며 LAN보다는 더 많이 혼잡하다.
- WAN(Wide Area Network)
광역 네트워크, 국가 또는 대륙 같은 더 넓은 지역에서 운영된다.
전송 속도는 낮으며 MAN보다 더 혼잡하다.
네트워크 성능 분석 명령어
코드 상에는 문제가 없는데 사용자가 서비스로부터 데이터를 가져오지 못하는 상황이 발생하기도 한다. 이는 네트워크 병목 현상일 가능성이 있다.
병목 현상의 주된 원인은 다음과 같다.
- 네트워크 대역폭
- 네트워크 토폴로지
- 서버 CPU, 메모리 사용량
- 비효울적인 네트워크 구성
이 때, 네트워크와 관련된 테스트와 네트워크와 무관한 테스트를 통해 '네트워크로부터 발생한 문제점'인 것을 확인한 후 네트워크 성능 분석을 해봐야 한다. 이 때 사용하는 명령어들을 알아보자.
ping(Packet INternet Groper)
ping은 네트워크 상태를 확인하려는 대상 노드를 향해 일정 크기의 패킷을 전송하는 명령어이다.
이를 통해 해당 노드의 패킷 수신 상태와 도달하기까지의 시간 등을 알 수 있으며 해당 노드까지 네트워크가 잘 연결되어 있는지 확인할 수 있다.
ping은 TCP/IP 프로토콜 중 ICMP 프로토콜을 통해 동작하며, ICMP 프로토콜을 지원하지 않는 기기를 대상으로 실행할 수 없거나 네트워크 정책상 ICMP나 traceroute를 차단하는 대상의 경우 ping 테스팅은 불가능하다.
ping [IP 주소 또는 도메인 주소] 로 실행한다.
netstat
netstat 명령어는 접속되어 있는 서비스들의 네트워크 상태를 표시하는 데 사용되며 네트워크 접속, 라우팅 테이블, 네트워크 프로토콜 등 리스트를 보여준다. 주로 서비스의 포트가 열려 있는지 확인할 때 쓴다.
nslookup
DNS에 관련된 내용을 확인하기 위해 쓰는 명령어이다. 특정 도메인에 매핑된 IP를 확인하기 위해 사용한다.
tracert
윈도우에선 tracert이고 리눅스에서는 traceroute라는 명령어로 구동된다. 이것은 목적지 노드까지 네트워크 경로를 확인할 때 사용하는 명령어이다. 목적지 노드까지 구간들 중 어느 구간에서 응답 시간이 느려지는지 등을 확인할 수 있다.
이 외에도 ftp를 통해 대형 파일을 전송하여 테스팅하거나 tcpdump를 통해 노드로 오고 가는 패킷을 캡처하는 등의 명령어가 있으며 네트워크 분석 프로그램으로는 wireshark, netmon이 있다.
네트워크 프로토콜 표준화
네트워크 프로토콜이란 서로 다른 장치들끼리 데이터를 주고받기 위해 설정된 공통된 인터페이스이다. 프로토콜은 IEEE나 IETF라는 표준화 단체가 정한다.
IEEE802.3은 유선 LAN 프로토콜로, 유선으로 LAN을 구축할 때 쓰이는 프로토콜이다. 이를 통해 만든 기업이 다른 장치라도 서로 데이터를 수신할 수 있다.
예를 들어 웹을 접속할 때 '서로 약속된' 인터페이스인 HTTP라는 프로토콜을 통해 노드들은 웹 서비스를 기반으로 데이터를 주고받을 수 있다.
TCP/IP 4계층 모델
인터넷 프로토콜 스위트(internet protocol suite)는 인터넷에서 컴퓨터들이 서로 정보를 주고받는 데 쓰이는 프로토콜의 집합으로, TCP/IP 4계층 모델이나 OSI 7계층 모델로 설명한다.
TCP/IP 계층과 달리 OSI 계층은 애플리케이션 계층을 세 개로 쪼개고 링크 계층을 데이터 링크 계층, 물리 계층으로 나눠서 표현하는 것이 다르며, 인터넷 계층을 네트워크 계층으로 부른다는 점이 다르다.
계층은 왜 나눌까?
이 계층들은 특정 계층이 변경되었을 때 다른 계층이 영향을 받지 않도록 설계되었다. 예를 들어 전송 계층에서 TCP를 UDP로 변경했다고 해서 인터넷 웹 브라우저를 다시 설치해야 하는 것은 아니듯 유연하게 설계되었다.
즉 통신이 일어나는 과정을 단계별로 알 수 있고, 특정한 곳에 이상이 생기면 그 단계만 수정할 수 있기 때문이다.
애플리케이션 계층
애플리케이션(application) 계층은 FTP, HTTP, SSH, SMTP, DNS 등 응용 프로그램이 사용되는 프로토콜 계층이며 웹 서비스, 이메일 등 서비스를 실질적으로 사람들에게 제공하는 층이다.
FTP : 장치와 장치 간 파일 전송에 사용되는 표준 통신 프로토콜
HTTP : World Wide Web을 위한 데이터 통신의 기초이자 웹 사이트를 이용하는 데 쓰는 프로토콜
SSH : 보안되지 않은 네트워크에서 네트워크 서비스를 안전하게 운영하기 위한 암호화 네트워크 프로토콜
SMTP : 전자 메일 전송을 위한 인터넷 표준 통신 프로토콜
DNS : 도메인 이름과 IP 주소를 매핑해주는 서버, 예를 들어 www.naver.com에 DNS 쿼리가 오면 [Root DNS]->[.com DNS]->[.naver DNS]->[.www DNS] 과정을 거쳐 완벽한 주소를 찾아 IP 주소를 매핑한다. 이를 통해 IP 주소가 바뀌어도 사용자들에게 똑같은 도메인 주소로 서비스할 수 있다.
전송 계층
전송(transport) 계층은 송신자와 수신자를 연결하는 통신 서비스를 제공하며 연결 지향 데이터 스트림 지원, 신뢰성, 흐름 지어를 제공한다. 애플리케이션과 인터넷 계층 사이의 중계 역할을 한다.
TCP : 순서 보장, 연결지향적, 신뢰성, 가상회선 패킷 교환 방식
UDP : 순서를 보장하지 않음, 비연결성, 데이터그램 패킷 교환 방식
- 가상회선 패킷 교환 방식
각 패킷에는 가상회선 식별자가 포함되며 모든 패킷을 전송하면 가상회선이 해제되고 패킷들은 전송된 '순서대로' 도착하는 방식
그림을 보면, 321 로 이루어진 패킷이 어떠한 회선을 따라 순서대로 도착한다.
- 데이터그램 패킷 교환 방식
패킷이 독립적으로 이동하며 최적의 경로를 선택하여 간다. 하나의 메시지에서 분할된 여러 패킷은 서로 다른 경로로 전송될 수 있으며 도착한 '순서가 다를 수' 있는 방식
[TCP] 3 way handshake & 4 way handshake
연결을 성립하고 해제하는 과정을 말한다.
3 way handshake - 연결 성립
TCP는 정확한 전송을 보장해야 한다. 따라서 통신하기에 앞서, 신뢰성을 구축하기 위해 3 way handshake 과정을 진행한다.
1. SYN 단계 : 클라이언트가 서버에게 SYN 패킷을 보냄 (클라이언트의 시퀀스 번호 = x)
2. SYN + ACK 단계 : 서버가 SYN(seq = x)를 받고, 클라이언트로 받았다는 신호인 ACK와 SYN 패킷을 보냄
(서버의 시퀀스 번호 = y, ACK = x + 1)
3. ACK 단계 : 클라이언트는 서버의 응답인 ACK(x+1)와 SYN(seq = y)를 받고, ACK(y+1)를 서버로 보냄
이렇게 3번의 통신이 완료되면 신뢰성이 구축되고 데이터 전송을 시작한다. TCP는 이 과정이 있기 때문에 신뢰성이 있는 계층이라 하고 UDP는 이 과정이 없기 때문에 신뢰성이 없는 계층이라 한다.
4 way handshake - 연결 해제
연결 성립 후, 모든 통신이 끝났다면 해제해야 한다.
1. 클라이언트는 서버에게 연결을 종료한다는 FIN으로 설정된 세그먼트를 보낸다. 그리고 클라이언트는 FIN_WAIT1 상태로 들어가고 서버의 응답을 기다린다.
2. 서버는 클라이언트로 ACK라는 승인 세그먼트를 보낸다. 그리고 모든 데이터를 보내기 위해 CLOSE_WAIT 상태에 들어간다. 클라이언트가 세그먼트를 받으면 FIN_WAIT2 상태에 들어간다.
3. 데이터를 모두 보냈다면, 연결이 종료되었다는 FIN으로 설정된 세그먼트를 클라이언트에게 보낸다.
4. 클라이언트는 FIN을 받고, 아직 서버로부터 받지 못한 데이터가 있을 수 있으므로 TIME_WAIT이 되고 다시 서버로 ACK를 보내서 서버는 CLOSED가 된다.
- 서버는 ACK를 받은 이후 소켓을 닫는다.(Closed)
- TIME_WAIT 시간이 끝나면 클라이언트도 소켓을 닫는다.(Closed)
이렇게 4번의 통신이 완료되면 연결이 해제된다.
인터넷 계층(네트워크 계층)
라우터, IP, ARP, ICMP
인터넷(internet) 계층은 장치로부터 받은 네트워크 패킷을 IP 주소로 지정된 목적지까지 전송하기 위해 사용되는 계층이다.
라우터를 통해 이동할 경로를 선택하여 IP 주소를 지정하고, 해당 경로에 따라 패킷을 전달해 준다. 상대방이 제대로 받았는지에 대해 보장하지 않는 비연결형적인 특징이 있다.
링크 계층
브릿지, 스위치, 전선, 광섬유, 무선
실질적으로 데이터를 전송하며 장치 간에 신호를 주고받는 '규칙'을 정하는 계층
물리 계층과 데이터 링크 계층으로 나누기도 하는데 물리 계층은 유선 LAN과 무선 LAN을 통해 데이터를 전기적인 신호로 변환해서 주고받는 기능을 진행하는 공간이며, 데이터 링크 계층은 물리 계층으로 송수신되는 정보를 관리하여 안전하게 전달되도록 도와준다. MAC 주소를 통해 통신하고 프레임에 MAC 주소를 부여한다. '이더넷 프레임'을 통해 에러 검출, 재전송, 흐름 제어를 담당한다.
유선 LAN(IEEE802.3)
유선 LAN을 이루는 이더넷은 IEEE802.3이라는 프로토콜을 따르며 전이중화 통신을 쓴다.
- 전이중화 통신(full duplex)
양쪽 장치가 동시에 송수신할 수 있는 방식, 송신로와 수신로로 나눠서 데이터를 주고받으며 현대의 고속 이더넷은 이 방식을 기반으로 통신한다.
- CSMA/CD
전이중화 통신 이전에는 유선 LAN에 '반이중화 통신' 중 하나인 CSMA/CD을 사용했다. 이 방식은 데이터를 '보낸 후' 충돌이 발생한다면 일정 시간 이후 재전송하는 방식이다. 수신로와 송신로가 별도가 아니라 한 경로를 기반으로 데이터를 보내기 때문에 데이터를 보낼 때 충돌에 대비해야 했기 때문이다.
무선 LAN(IEEE802.11)
무선 LAN은 송신과 수신에 같은 채널을 사용하기 때문에 반이중화 통신을 사용한다.
- 반이중화 통신
반이중화 통신은 서로 통신할 수 있지만, 동시에는 통신할 수 없으며 한 번에 한 방향만 통신할 수 있는 방식이다.
일반적으로 장치가 신호를 수신하기 시작하면 응답하기 전에 전송이 완료될 때까지 기다려야 하고 둘 이상의 장치가 동시에 전송하면 충돌이 발생하여 메시지가 손실되거나 왜곡될 수 있으므로 충돌 방지 시스템이 필요하다.
- CSMA/CA
CSMA/CA는 반이중화 통신 중 하나로 장치에서 데이터를 보내기 전에 일련의 과정을 기반으로 사전에 가능한 한 충돌을 방지하는 방식을 말한다.
이와 반대되는 전이중화 통신은 양방향 통신이 가능하므로 충돌 가능성이 없기 때문에 충돌을 감지하거나 방지하는 메커니즘이 필요하지 않다.
이더넷 프레임
데이터 링크 계층은 이더넷 프레임을 통해 전달받은 데이터의 에러를 검출하고 캡슐화하며 다음과 같은 구조를 가진다.
- Preamble : 이더넷 프레임이 시작임을 알림
- SFD(Start Frame Delimiter) : 다음 바이트부터 MAC 주소 필드가 시작됨을 알림
- DMAC, SMAC : 수신, 송신 MAC 주소
- EtherType : 데이터 계층 위의 계층인 IP 프로토콜을 정의, 예를 들어 IPv4 또는 IPv6
- Payload : 전달받은 데이터
- CRC : 에러 확인 비트
MAC 주소는 컴퓨터나 노트북 등 각 장치에 네트워크에 연결하기 위한 장치(LAN 카드)가 있는데, 이를 구별하기 위한 식별번호이다. 6바이트(48비트)로 구성된다.
계층 간 데이터 송수신 과정
만약 컴퓨터를 통해 다른 컴퓨터로 데이터를 요청하거나, HTTP를 통해 웹 서버에 있는 데이터를 요청하게 된다면 다음과 같은 일이 일어난다.
요청(request) 값들은 캡슐화 과정을 거쳐 전달되고, 다시 링크 계층을 통해 해당 서버와 통신을 하고, 해당 서버의 링크 계층부터 애플리케이션까지 비캡슐화 과정을 거쳐 데이터가 전송된다.
- 캡슐화
캡슐화 과정은 상위 계층의 헤더와 데이터를 하위 계층의 데이터 부분에 포함시키고 해당 계층의 헤더를 삽입하는 과정
애플리케이션 계층의 데이터가 전송 계층으로 전달되며 '세그먼트' 또는 '데이터그램'화 되면서 TCP(L4) 헤더가 붙여지게 된다. 그리고 인터넷 계층으로 가면서 IP(L3) 헤더가 붙여지게 되며 '패킷화'가 되고, 이후 링크 계층으로 전달되면서 프레임 헤더와 프레임 트레일러가 붙어 '프레임'화가 된다.
- 비캡슐화
하위 계층에서 상위 계층으로 가며 각 계층의 헤더 부분을 제거하는 과정
링크 계층에서부터 타고 올라오면서 프레임화된 데이터는 다시 패킷화를 거쳐 세그먼트, 데이터그램화를 거쳐 메시지화가 되는 비캡슐화 과정이 일어난다. 그 이후 최종적으로 사용자에게 애플리케이션의 PDU인 메시지로 전달된다.
- PDU
PDU = 헤더(제어 관련 정보) + 페이로드(데이터)
PDU는 어떠한 계층에서 데이터가 전달될 때 한 덩어리의 단위를 PDU(Protocol Data Unit)라고 한다.
애플리케이션 계층 : 메시지
전송 계층 : 세그먼트(TCP), 데이터그램(UDP)
인터넷 계층 : 패킷
링크 계층 : 프레임(데이터 링크 계층), 비트(물리 계층)
PDU 중 아래 계층인 비트로 송수신하는 것이 모든 PDU 중 가장 빠르고 효율성이 높지만 애플리케이션 계층에선 문자열을 기반으로 송수신을 하는데, 그 이유는 헤더에 authorization 값 등 다른 값들을 넣는 확장이 쉽기 때문이다.
네트워크 기기
네트워크는 여러 개의 네트워키 기기를 기반으로 구축된다.
네트워크 기기의 처리 범위
네트워크 기기는 계층별로 처리 범위를 나눌 수 있다. 상위 계층을 처리할 수 있는 기기는 하위 계층을 처리할 수 있지만 그 반대는 불가능하다. 예를 들어 L7 스위치는 애플리케이션 계층을 처리하는 기기로, 그 밑의 모든 계층의 프로토콜을 처리할 수 있다. 하지만 AP는 물리 계층밖에 처리하지 못한다.
애플리케이션 계층 : L7 스위치
전송 계층 : L4 스위치
인터넷 계층 : 라우터, L3 스위치
데이터 링크 계층 : L2 스위치, 브리지
물리 계층 : NIC, 리피터, AP
애플리케이션 계층을 처리하는 기기
애플리케이션 계층을 처리하는 기기로는 L7 스위치가 있다.
L7 스위치
스위치는 여러 장비를 연결하고 데이터 통신을 중재하며 목적지가 연결된 포트로만 전기 신호를 보내 데이터를 전송하는 통신 네트워크 장비이다.
L7 스위치는 로드밸런서라고도 하며, 서버의 부하를 분산하는 기기이다. 클라이언트로부터 오는 요청들을 뒤쪽의 여러 서버로 나누는 역할을 하며 시스템이 처리할 수 있는 트래픽 증가를 목표로 한다.
URL, 서버, 캐시, 쿠키들을 기반으로 트래픽을 분산한다. 또한 바이러스, 불필요한 외부 데이터 등을 걸러내는 필터링 기능도 가지고 있으며 응용 프로그램 수준의 트래픽 모니터링도 가능하다.
장애가 발생한 서버가 있다면 이를 트래픽 분산 대상에서 제외해야 하는데, 이는 정기적으로 헬스 체크(health check)를 이용하여 감시하면서 이루어진다.
- L4 스위치와 L7 스위치의 차이
로드밸런서로는 L7 스위치뿐만 아니라 전송 계층을 처리하는 기기인 L4 스위치도 있다. 스트리밍 관련 서비스에서는 사용할 수 없으며 메시지를 기반으로 인식하지 못하고 IP와 포트(특히 포트)를 기반으로 트래픽을 분산한다. 반면 L7 스위치는 IP, 포트 외에도 URL, HTTP 헤더, 쿠키 등을 기반으로 트래픽을 분산한다.
클라우드 서비스(AWS 등)에서 L7 스위치를 이용한 로드밸런싱은 ALB(Applicaton Load Balancer) 컴포넌트로 하며, L4 스위치를 이용한 로드밸런싱은 NLB(Network Load Balancer) 컴포넌트로 한다.
- 헬스 체크
L4 스위치 또는 L7 스위치 모두 헬스 체크를 통해 정상적인 서버 또는 비정상적인 서버를 판별한다. 헬스 체크는 서버에 부하가 되지 않을 만큼 적절한 요청 횟수를 가진 전송 주기와 재전송 횟수 등을 설정하고 반복적으로 서버에 요청을 보내는 것을 말한다.
TCP, HTTP 등 다양한 방법으로 보내며 이 요청이 정상적으로 이루어졌다면 정상적인 서버로 판별한다. 예를 들어 TCP 요청을 보냈는데 3-way handshake가 정상적으로 이루어지지 않았다면 정상이 아닌 것이다.
- 로드밸런서를 이용한 서버 이중화
로드밸런서는 대표적인 기능으로 서버 이중화를 들 수 있다. 서버를 안정적으로 운용하기 위해선 2대 이상의 서버는 필수적이다. 에러가 발생하여 서버 1대가 종료되더라도 서비스는 안정적으로 운용되어야 하기 때문이다.
로드밸런서는 2대 이상의 서버를 기반으로 가상 IP를 제공하고 이를 기반으로 안정적인 서비스를 제공한다.
로드밸런서가 10.0.0.10이란 가상 IP를 제공한다면 가상IP에 사용자들이 접근하고 뒷단에 사용 가능한 서버인 10.0.0.11과 10.0.0.12를 기반으로 서빙한다. 이렇게 하면 10.0.0.11에 장애가 발생해도 무방하게 10.0.0.12 서버를 기반으로 안정적인 서비스 운용이 가능하다.
인터넷 계층을 처리하는 기기
인터넷 계층을 처리하는 기기로는 라우터, L3 스위치가 있다.
- 라우터(router)
라우터는 여러 개의 네트워크를 연결, 분할, 구분시켜주는 역할을 하며 다른 네트워크에 존재하는 장치끼리 서로 데이터를 주고 받을 때 패킷 소모를 최소화하고 경로를 최적화하여 최소 경로로 포워딩하는 라우팅을 하는 장비이다.
- L3 스위치
L3 스위치란 L2 스위치의 기능과 라우팅 기능을 갖춘 장비로, 라우터라고 해도 무방하다. 라우터는 소프트웨어 기반의 라우팅과 하드웨어 기반의 라우팅으로 나눠지고 하드웨어 기반의 라우팅을 담당하는 장치를 L3 스위치라고 한다.
구분 | L2 스위치 | L3 스위치 |
참조 테이블 | MAC 주소 테이블 | 라우팅 테이블 |
참조 PDU | 이더넷 프레임 | IP 패킷 |
참조 주소 | MAC 주소 | IP 주소 |
데이터 링크 계층을 처리하는 기기
데이터 링크 계층을 처리하는 기기로는 L2 스위치와 브리지가 있다.
- L2 스위치
L2 스위치는 장치들의 MAC 주소를 MAC 주소 테이블을 통해 관리하며, 연결된 장치로부터 패킷이 왔을 때 패킷 전송을 담당한다.
IP 주소를 이해하지 못해 IP 주소를 기반으로 라우팅은 불가능하며 단순히 패킷의 MAC 주소를 읽어 스위칭하는 역할을 한다. 목적지가 MAC 주소 테이블에 없다면 전체 포트에 전달하고 MAC 주소 테이블의 주소는 일정 시간 이후 삭제하는 기능도 있다.
- 브리지
브리지는 두 개의 근거리 통신망(LAN)을 상호 접속할 수 있도록 하는 통신망 연결 장치로, 포트와 포트 사이 다리 역할을 하며 장치에서 받아온 MAC 주소를 MAC 주소 테이블로 관리한다.
브리지는 통신망 범위를 확장하고 서로 다른 LAN 등으로 이루어진 '하나의' 통신망을 구축할 때 쓰인다.
물리 계층을 처리하는 기기
물리 계층을 처리하는 기기는 NIC, 리피터, AP가 있다.
- NIC(Network Interface Card)
LAN 카드라고 하는 네트워크 인터페이스 카드(NIC)는 2대 이상의 컴퓨터 네트워크를 구성하는 데 사용되며, 네트워크와 빠른 속도로 데이터를 송수신할 수 있도록 컴퓨터 내에 설치하는 확장 카드이다.
각 LAN에는 각각을 구분하기 위한 고유 식별번호인 MAC 주소가 있다.
- 리피터(repeater)
들어오는 약해진 신호 정도를 증폭하여 다른 쪽으로 전달하는 장치로, 패킷이 더 멀리 갈 수 있다. 하지만 광케이블이 보급됨에 따라 현재는 잘 쓰이지 않는다.
- AP(Access Point)
패킷을 복사하는 기기로, AP에 유선 LAN을 연결한 후 다른 장치에서 무선 LAN 기술(와이파이 등)을 사용하여 무선 네트워크 연결을 할 수 있다.
IP 주소
인터넷 계층에선 IP 주소를 사용한다.
ARP
컴퓨터와 컴퓨터 간 통신은 IP 주소만으로 이루어지지 않는다. 정확히 얘기하면, IP 주소에서 ARP를 통해 MAC 주소를 찾아 MAC 주소를 기반으로 통신한다.
ARP(Address Resolution Protocol)란 IP 주소로부터 MAC 주소를 구하는 IP와 MAC 주소의 다리 역할을 하는 프로토콜이다. ARP를 통해 가상 주소인 IP 주소를 실제 주소인 MAC 주소로 변환한다. 이와 반대로 RARP는 MAC 주소를 가상 주소인 IP 주소로 변환하기도 한다.
만약 장치 A가 ARP Request 브로드캐스트를 보내서 IP 주소인 120.70.80.3에 해당하는 MAC 주소를 찾는다면, 해당 주소에 맞는 장치 B가 ARP Reply 유니캐스트를 통해 MAC 주소를 반환하는 과정을 거쳐 IP 주소에 맞는 MAC 주소를 찾게 된다.
브로드캐스트 : 송신 호스트가 전송한 데이터가 네트워크에 연결된 모든 호스트에 전송되는 방식
유니캐스트 : 고유 주소로 식별된 하나의 네트워크 목적지에 1:1로 데이터를 전송하는 방식
홉바이홉 통신
IP 주소를 통해 통신하는 과정을 홉바이홉 통신이라고 한다. 여기서 홉(hop)이란 통신망에서 각 패킷이 여러 개의 라우터를 건너가는 모습을 비유적으로 표현한 것이다.
수많은 서브네트워크 안에 있는 라우팅 테이블 IP를 기반으로 패킷을 전달해나가며 라우팅을 수행하고 최종 목적지까지 패킷을 전달한다.
즉, 통신 장치에 있는 '라우팅 테이블'의 IP를 통해 시작 주소부터 시작하여 다음 IP로 계속해서 이동하는 '라우팅' 과정을 거쳐 패킷이 최종 목적지까지 도달하는 통신을 말한다.
라우팅 : IP 주소를 찾아가는 과정
- 라우팅 테이블(routing table)
라우팅 테이블은 송신지에서 수신지까지 도달하기 위해 사용되며 라우터에 들어가 있는 목적지 정보들과 그 목적지로 가기 위한 방법이 들어 있는 리스트이다.
라우팅 테이블에는 게이트웨이와 모든 목적지에 대해 해당 목적지에 도달하기 위해 거쳐야 할 다음 라우터의 정보를 가지고 있다.
- 게이트웨이(gateway)
서로 다른 통신망, 프로토콜을 사용하는 네트워크 간의 통신을 가능하게 하는 관문 역할을 하는 컴퓨터나 소프트웨어를 일컫는 용어이다.
사용자는 인터넷에 접속하기 위해 수많은 게이트웨이를 거쳐야 하며 게이트웨이는 서로 다른 네트워크상의 통신 프로토콜을 변환해주는 역할을 하기도 한다.
게이트웨이를 확인하는 방법은 라우팅 테이블을 통해 볼 수 있으며 라우팅 테이블은 윈도우 명령 프롬포트에서 netstat -r 명령어를 실행하여 확인할 수 있다.
IP 주소 체계
IP 주소 체계는 IPv4와 IPv6로 나뉜다. IPv4는 32비트를 8비트 단위로 점을 찍어 표기하고, 123.45.67.89 같은 방식으로 IP 주소를 나타낸다. IPv6는 64비트를 16비트 단위로 점을 찍어 표기하며, 2001:db8::ff00:42:8329 같은 방식으로 IP 주소를 나타낸다.
추세는 IPv6로 가고 있지만 현재 가장 많이 쓰이는 주소 체계는 IPv4이다.
클래스 기반 할당 방식
IP 주소 체계는 처음에는 A, B, C, D, E 다섯 개의 클래스로 구분하는 클래스 기반 할당 방식(classful network addressing)을 썼다. 앞에 있는 부분을 네트워크 주소, 뒤에 있는 부분을 컴퓨터에 부여하는 주소인 호스트 주소로 놓아서 사용한다.
클래스 A~C는 일대일 통신으로 쓰이고 클래스 D는 멀티캐스트 통신, 클래스 E는 앞으로 사용할 예비용으로 쓰는 방식이다. 예를 들어 클래스 A의 경우 0.0.0.0~127.255.255.255까지 범위를 갖는다.
맨 왼쪽에 있는 비트를 '구분 비트'라고 한다. 클래스 A의 경우 맨 왼쪽에 있는 비트가 0이고, 클래스 B는 10, 클래스 C는 110이다. 이를 통해 클래스 간의 IP가 나눠진다. 클래스 A에서 가질 수 있는 IP 범위는 00000000.00000000.00000000.00000000~01111111.11111111.11111111.11111111이다. 십진수로 표현하면 0.0.0.0~127.255.255.255이다.
또한, 네트워크 첫 번째 주소는 네트워크 구별 주소로 사용되고 마지막 주소는 브로드캐스트용 주소로 네트워크에 속해 있는 모든 컴퓨터에 데이터를 보낼 때 사용된다.
예를 들어 클래스 A로 12.0.0.0이란 네트워크를 부여받았다면, 12.0.0.1~12.255.255.254의 호스트 주소를 부여받은 것이다. 12.0.0.0은 네트워크 구별 주소이고 12.255.255.255는 브로드캐스트용으로 남겨두어야 하기 때문이다. 그 사이에 있는 12.0.0.1~12.255.255.254를 컴퓨터에 부여할 수 있는 호스트 주소로 사용할 수 있다.
하지만 이 방식은 사용하는 주소보다 버리는 주소가 많은 단점이 있었고 이를 해소하기 위해 DHCP와 IPv6, NAT가 나온다.
DHCP
DHCP(Dynamic Host Configuration Protocol)는 IP 주소 및 기타 통신 매개변수를 자동으로 할당하기 위한 네트워크 관리 프로토콜이다. 이 기술을 통해 네트워크 장치의 IP 주소를 수동으로 설정할 필요 없이 인터넷에 접속할 때마다 자동으로 IP 주소를 할당할 수 있다.
많은 라우터와 게이트웨이 장비에 DHCP 기능이 있으며 이를 통해 대부분의 가정용 네트워크에서 IP 주소를 할당한다.
NAT
NAT(Network Address Translation)은 패킷이 라우팅 장치를 통해 전송되는 동안 패킷의 IP 주소 정보를 수정하여 IP 주소를 다른 주소로 매핑하는 방법이다. IPv4 주소 체계만으로는 많은 주소들을 모두 감당하지 못하는 단점이 있는데, 이를 해결하기 위해 NAT로 공인 IP와 사설 IP로 나눠서 많은 주소를 처리한다. NAT를 가능하게 하는 소프트웨어는 ICS, RRAS, Netfilter 등이 있다.
만약 192.1.168.6.xxx를 기반으로 각각의 다른 IP를 가진다고 할 때, 이는 사설 IP라고 한다. 그리고 하나의 NAT 장치를 통해 하나의 공인 IP인 192.1.168.6.200으로 외부 인터넷에 요청할 수 있다.
내부 네트워크에서만 유효한 사설 IP를 통해 하나의 IP인 192.1.168.6.200을 기반으로 각각의 다른 IP를 가지는 것처럼 인터넷을 사용할 수 있다. 이처럼 NAT 장치를 통해 사설 IP를 공인 IP로 변환하거나 공인 IP를 사설 IP로 변환할 수 있다.
- 공유기와 NAT
NAT를 쓰는 이유는 주로 여러 대의 호스트가 하나의 공인 IP 주소를 사용하여 인터넷에 접속하기 위함이다. 예를 들어 인터넷 회선 하나를 개통하고 인터넷 공유기를 달아서 여러 PC를 연결하여 사용할 수 있는데, 이것이 가능한 이유는 인터넷 공유기에 NAT 기능이 탑재되어 있기 때문이다.
- NAT을 이용한 보안
NAT을 이용하면 내부 네트워크에서 사용하는 IP 주소와 외부에 드러나는 IP 주소를 다르게 유지할 수 있기 때문에 내부 네트워크에 대한 어느 정도의 보안이 가능해진다.
- NAT의 단점
NAT는 동시에 여러 명이 인터넷을 접속하게 되므로 실제로 접속하는 호스트 숫자에 따라서 접속 속도가 느려질 수 있다는 단점이 있다.
- IP 주소를 이용한 위치 정보
https://mylocation.co.kr/#google_vignette
https://mylocation.co.kr/NotSupport.aspx?type=6
정상적인 방법으로 사이트에 접근하시기 바랍니다.
mylocation.co.kr
HTTP
HTTP는 애플리케이션 계층으로서 웹 서비스 통신에 이용된다. HTTP/1.0 ~ HTTP/3으로 발전했다.
HTTP/1.0
HTTP/1.0은 기본적으로 한 연결당 하나의 요청을 처리하도록 설계되었다. 따라서 서버로부터 파일을 가져올 때마다 TCP의 3-way handshake를 계속해서 열어야 하기 때문에 RTT가 증가하는 단점이 있었다.
RTT란 패킷 왕복 시간이다.
해결하기 위한 방법
매번 연결할 때마다 RTT가 증가하니 서버에 부담이 많이 가고 사용자 응답 시간이 길어졌다. 이를 해결하기 위해 이미지 스플리팅, 코드 압축, Base64 인코딩을 사용하곤 했다.
- 이미지 스플리팅
많은 이미지를 다운로드받게 되면 과부화가 걸리므로 많은 이미지가 합쳐 있는 하나의 이미지를 다운로드 받고, 이를 기반으로 background-image의 position을 이용하여 이미지를 표기하는 방법이다.
- 코드 압축
코드를 압축해서 개행 문자, 빈칸을 없애서 코드의 크기를 최소화하는 방법이다.
- 이미지 Base64 인코딩
인코딩이란 정보의 형태나 형식을 표준화, 보안, 처리 속도 향상, 저장 공간 절약 등을 위해 다른 형태나 형식으로 변환하는 처리 방식이다.
이미지 파일을 64진법으로 이루어진 문자열로 인코딩하는 방법이다. 서버와의 연결을 열고 이미지에 대해 서버에 HTTP 요청을 할 필요가 없다는 장점이 있지만, Base64 문자열로 변환할 경우 37% 정도 크기가 더 커지는 단점이 있다.
HTTP/1.1
HTTP 1.1은 HTTP 1.0이 발전한 형태로, 매번 TCP 연결을 하는 것이 아니라 한 번 TCP 초기화를 한 이후에 keep-alive라는 옵션으로 여러 개의 파일을 송수신할 수 있게 바뀌었다. HTTP/1.0에도 keep-alive가 있었지만 표준화가 되어 있지 않았고 HTTP/1.1부터 표준화가 되어 기본 옵션으로 설정되었다.
즉, 한 번 TCP 3-way handshake가 발생하면 다음부터 발생하지 않는다. 하지만 문서 안에 포함된 다수의 리소스(이미지, 동영상, css 파일, js 파일 등)를 순차적으로 처리하려면 요청할 리소스 개수에 비례하여 대기 시간이 길어지는 단점이 있다.
HOL Blocking(Head Of Line Blocking)
네트워크에서 같은 큐에 있는 패킷이 그 첫 번째 패킷에 의해 지연될 때 발생하는 성능 저하 현상이다.
image.jpg, style.css, data.xml을 순차적으로 다운로드 받을 때, image.jpg가 느리게 받아진다면 뒤에 있는 것들이 대기하게 되며 다운로드가 지연되는 상태가 된다.
무거운 헤더 구조
HTTP/1.1의 헤더에는 쿠키 등 많은 메타데이터가 들어 있고 압축이 되지 않아 무거웠다.
HTTP/2
HTTP/2는 SPDY 프로토콜에서 파생된 HTTP/1.x보다 지연 시간을 줄이고 응답 시간을 더 빠르게 할 수 있으며 멀티플렉싱, 헤더 압축, 서버 푸시, 요청의 우선순위 처리를 지원하는 프로토콜이다.
- 멀티플렉싱
멀티플렉싱이란 여러 개의 스트림을 사용하여 송수신한다는 것이다. 이를 통해 특정 스트림의 패킷이 손실되었다 하더라도 해당 스트림에만 영향을 미치고 나머지 스트림은 멀쩡하게 동작한다.
스트림(stream)이란 데이터가 일정한 순서에 따라 연속적으로 전달되는 것을 의미한다.
병렬적인 스트림들을 통해 데이터를 서빙하고 있다. 또한, 스트림 내의 데이터들도 쪼개져 있다. 애플리케이션에서 받아온 메시지를 독립된 프레임으로 조각내어 서로 송수신한 후 다시 조립하여 다시 조립하며 데이터를 주고받는다.
순차적으로 요청을 수신하고 응답했던 HTTP 1.x와 달리, 단일 연결을 사용하여 병렬로 여러 요청을 받을 수 있고 줄 수 있다. 이렇게 되면 HOL Blocking을 해결할 수 있다.
- 헤더 압축
HTTP 1.x에는 크기가 큰 헤더라는 문제점이 있었는데, HTTP/2에서는 헤더 압축을 써서 해결한다. 이 때 허프만 코딩 압축 알고리즘을 사용하는 HPACK 압축 형식을 가진다.
허프만 코딩(huffman coding)은 문자열을 문자 단위로 쪼개 빈도수를 세어 빈도가 높은 정보는 낮은 비트 수를 사용하여 표현하고, 빈도가 낮은 정보는 비트 수를 많이 사용하여 표현해서 전체 데이터의 표현에 필요한 비트양을 줄이는 원리이다.
- 서버 푸시
HTTP/1.1에서는 클라이언트가 서버에 요청을 해야 파일을 다운로드받을 수 있었다면, HTTP/2는 클라이언트 요청 없이 서버가 바로 리소스를 푸시할 수 있다.
html에는 css나 js 파일이 포함되어 있기 마련인데 html을 읽으면서 그 안에 들어 있던 css 파일을 푸시하여 클라이언트에게 먼저 주는 것이다.
HTTPS
HTTP/2는 HTTPS 위에서 동작한다. HTTPS는 애플리케이션과 전송 계층 사이 신뢰 계층인 SSL/TLS 계층을 넣어 신뢰할 수 있는 HTTP 요청이다. 이를 통해 '통신을 암호화' 한다.
SSL/TLS
SSL(Secure Socket Layer)은 1.0~3.0, TLS(Transport Layer Security Protocol) 1.0~1.3까지 버전이 올라가며 마지막으로 명칭이 TLS로 변경되었으나, 보통 이를 합쳐 SSL/TLS라고 많이 부른다.
SSL/TLS는 전송 계층에서 보안을 제공하는 프로토콜로, 클라이언트와 서버간 통신 시 제3자가 메시지를 도청하거나 변조하지 못하도록 한다.
SSL/TLS를 이용하면 공격자가 서버인 척 사용자 정보를 가로채는 네트워크상의 '인터셉터'를 방지할 수 있다.
이는 보안 세션을 기반으로 데이터를 암호화하며, 보안 세션이 만들어질 때 인증 메커니즘, 키 교환 암호화 알고리즘, 해싱 알고리즘이 사용된다.
- 보안 세션
세션이란 운영체제가 어떠한 사용자로부터 자신의 자산 이용을 허락하는 일정한 기간이다. 즉, 사용자는 일정 시간동안 응용 프로그램, 자원 등을 사용할 수 있다.
보안 세션이란 보안이 시작되고 끝나는 동안 유지되는 세션을 말하고, SSL/TLS는 핸드셰이크를 통해 보안 세션을 생성하고 이를 기반으로 상태 정보 등을 공유한다.
클라이언트에서 사이퍼 슈트(cypher suites)와 키 교환을 위한 임시 키 정보를 서버에 전달하면 서버는 받은 사이퍼 슈트의 암호화 알고리즘 리스트를 제공할 수 있는지 확인한다. 제공할 수 있다면 서버에서 클라이언트로 인증서를 보내는 인증 메커니즘이 시작되고 이후 해싱 알고리즘 등으로 암호화된 데이터의 송수신이 시작된다.
사이퍼 슈트
사이퍼 슈트는 프로토콜, AEAD 사이퍼 모드, 해싱 알고리즘이 나열된 규약으로 5개가 있다.
TLS_AES_128_GCM_SHA256
TLS_AES_256_GCM_SHA384
TLS_CHACHA20_POLY1305_SHA256
TLS_AES_128_CCM_SHA256
TLS_AES_128_CCM_8_SHA256
예를 들어 TLS_AES_128_GCM_SHA256은 세 가지 규약이 들어 있는데 TLS는 프로토콜, AES_128_GCM은 AEAD 사이퍼 모드, SHA256은 해싱 알고리즘이다.
AEAD(Authenticated Encryption with Associated Data)는 데이터 암호화 알고리즘이다. AES_128_GCM이라는 것은 128비트의 키를 사용하는 표준 블록 암호화 기술과 병렬 계산에 용이한 암호화 알고리즘 GCM이 결합된 알고리즘을 뜻한다.
인증 메커니즘
인증 메커니즘은 CA(Certificate Authorities)에서 발급한 인증서를 기반으로 이루어진다. CA에서 발급한 인증서는 '공개키'를 클라이언트에게 제공하고 사용자가 접속한 '서버가 신뢰'할 수 있는 서버임을 보장한다. 인증서는 서비스 정보, 공개키, 지문, 디지털 서명 등으로 이루어져 있다.
CA의 대표적인 기업으로는 Comodo, GoDaddy, GlobalSign, 아마존 등이 있다.
자신의 서비스가 CA 인증서를 발급받으려면 자신의 사이트 정보와 공개키를 CA에 제출해야 한다. 이후 CA는 공개키를 해시한 값인 지문(finger print)을 사용하는 CA의 비밀키 등을 기반으로 CA 인증서를 발급한다.
개인키는 비밀키라고도 하며, 개인이 소유하는 키이자 반드시 자신만이 소유해야 하는 키이다.
공개키는 공개되어 있는 키이다.
암호화 알고즘
키 교환 암호화 알고리즘으로는 대수곡선 기반의 ECDHE 또는 모듈식 기반의 DHE를 사용하는데, 둘다 디피-헬만 방식을 근간으로 만들어졌다.
디피-헬만 키 교환 암호화 알고리즘은 암호키를 교환하는 하나의 방법으로 처음에 공개 값을 공유하고 각자의 비밀 값과 혼합한 후 혼합 값을 공유한다. 그다음 각자의 비밀 값과 또 혼합한다.그 이후에 공통의 암호키인 PSK(Pre-Shared Key)가 생성된다.
이렇게 클라이언트와 서버 모두 개인키와 공개키를 생성하고, 서로에게 공개키를 보내고 공개키와 개인키를 결합하여 PSK가 생성된다면, 악의적인 사용자가 개인키 또는 공개키를 가지고도 PSK가 없기 때문에 아무것도 할 수 없다.
해싱 알고리즘
해싱 알고리즘은 데이터를 추정하기 힘든 더 작고, 섞여 있는 조각으로 만드는 알고리즘이다. SSL/TLS는 해싱 알고리즘으로 SHA-256 알고리즘과 SHA-384 알고리즘을 쓰며, SHA-256이 많이 쓰인다.
SHA-256 알고리즘은 해시 함수의 결과값이 256비트인 알고리즘이며 비트 코인을 비롯한 많은 블록체인 시스템에서도 쓴다. 해싱을 해야 할 메시지에 1을 추가하는 등 전처리를 하고 전처리된 메시지를 기반으로 해시를 반환한다.
- 해시 : 다양한 길이를 가진 데이터를 고정된 길이를 가진 데이터로 매핑(mapping)한 값
- 해싱 : 임의의 데이터를 해시로 바꿔주는 일이며 해시 함수가 이를 담당
- 해시 함수 : 임의의 데이터를 받아 일정한 길이의 데이터로 바꿔주는 함수
TLS 1.3은 사용자가 이전에 방문한 사이트로 재방문하면 SSL/TLS에서 보안 세션을 만들 때 걸리는 통신을 하지 않아도 된다. 이를 0-RTT라고 한다.
- SEO에도 도움이 되는 HTTPS
구글(Google)은 SSL 인증서를 강조해왔고 사이트 내 모든 요소가 동일하다면 HTTPS 서비스를 하는 사이트가 그렇지 않은 사이트보다 SEO 순위가 높을 것이라고 공식화했다.
SEO(Search Engine Optimization)은 검색엔진 최적화로, 사용자들이 구글, 네이버같은 검색엔진으로 웹 사이트를 검색했을 때 그 결과를 페이지 상단에 노출시켜 많은 사람이 볼 수 있도록 최적화하는 방법이다. 서비스를 운영한다면 SEO 관리는 필수이다. 이를 위해 캐노니컬 설정(link 설정), 메타 설정(html 가장 윗부분), 페이지 속도 개선, 사이트맵 관리 등이 있다.
페이지 속도 개선
사이트 속도는 빨라야 한다. 구글의 PageSpeedInsights에 가서 자신의 서비스에 대한 리포팅을 주기적으로 받으며 관리해야 한다.
PageSpeed Insights
올바른 URL을 입력하세요.
pagespeed.web.dev
HTTPS 구축 방법
HTTPS 구축 방법은 크게 세 가지이다. CA에서 구매한 인증키를 기반으로 HTTPS 서비스를 구축하거나, 서버 앞단의 HTTPS를 제공하는 로드밸런서를 두거나, 서버 앞단의 HTTPS를 제공하는 CDN을 둬서 구축한다.
HTTP/3
HTTP/3은 HTTP/1.1 및 HTTP/2와 함께 www에서 정보를 교환하는 데 사용되는 HTTP의 세 번째 버전이다. TCP 위에서 돌아가는 HTTP/2와 달리 HTTP/3은 QUIC라는 계층 위에서 돌아가며, TCP 기반이 아닌 UDP 기반으로 돌아간다.
HTTP/2에서 장점이었던 멀티플렉싱을 가지고 있으며 초기 연결 설정 시 지연 시간 감소라는 장점이 있다.
초기 연결 설정 시 지연 시간 감소
QUIC는 TCP를 기반으로 사용하지 않기 때문에 통신을 시작할 때 3-way handshake 과정을 거치지 않아도 된다. 첫 연결 설정에 1-RTT만 소요된다. 클라이언트가 서버에 어떤 신호를 한 번 주고, 서버도 거기에 응답하기만 하면 바로 본 통신을 시작한다.
참고로 QUIC는 순방향 오류 메커니즘(FEC, Forword Error Correction)이 적용되었다. 이는 전송한 패킷이 손실되면 수신측에서 에러를 검출하고 수정하는 방식이며 열악한 네트워크 상황에서도 낮은 패킷 손실률을 자랑한다.