운영체제(OS, Operating System)은 사용자가 컴퓨터를 쉽게 다루게 해주는 인터페이스이다. 한정된 메모리나 시스템 자원을 효율적으로 분배해준다. 운영체제와 비슷하지만 소프트웨어를 추가로 설치할 수 없는 것을 펌웨어(firmware)라고 한다.
운영체제와 컴퓨터
컴퓨터는 하드웨어와 소프트웨어(유저 프로그램)을 관리하는 운영체제와 CPU, 메모리 등으로 이루어져 있다.
운영체제의 역할과 구조
- 운영체제의 역할
1. CPU 스케줄링과 프로세스 관리 : CPU 소유권을 어느 프로세스에 할당할지, 프로세스의 생성과 삭제, 자원 할당 및 반환을 관리한다.
2. 메모리 관리 : 한정된 메모리를 어떤 프로세스에 얼만큼 할당해야 하는지 관리한다.
3. 디스크 파일 관리 : 디스크 파일을 어떠한 방법으로 보관할지 관리한다.
4. I/O 디바이스 관리 : I/O 디바이스들인 마우스, 키보드와 컴퓨터 간에 데이터를 주고받는 것을 관리한다.
- 운영체제의 구조
여기서 인터페이스(GUI, CUI), 시스템콜, 커널, 드라이버 부분이 운영체제를 지칭한다.
- GUI : 사용자와 전자장치가 상호 작용할 수 있도록 하는 사용자 인터페이스의 한 형태, 아이콘을 마우스로 클릭하는 단순한 동작으로 컴퓨터와 상호 작용할 수 있도록 한다.
- CUI : 그래픽이 아닌 명령어로 처리하는 인터페이스
- 드라이버 : 하드웨어를 제어하기 위한 소프트웨어
시스템콜
시스템콜이란 운영체제가 커널에 접근하기 위한 인터페이스이며 유저 프로그램이 운영체제의 서비스를 받기 위해 커널 함수를 호출할 때 쓴다.
유저 프로그램이 I/O 요청으로 트랩(trap)을 발동하면 올바른 I/O 요청인지 확인한 후 유저 모드가 시스템콜을 통해 커널 모드로 변환되어 실행된다. 예를 들어 I/O 요청인 open()이라는 시스템의 파일을 여는 함수가 발동했다고 하자.
이 때 유저 모드에서 파일을 열지 않고 커널 모드로 들어가 파일을 열고 다시 유저 모드로 돌아가 그 뒤에 있는 유저 프로그램의 로직을 수행한다. 이 과정을 통해 컴퓨터 자원에 대한 직접 접근을 차단할 수 있고 프로그램을 다른 프로그램으로부터 보호할 수 있다.
I/O 요청 : 입출력 함수, 데이터베이스, 네트워크, 파일 접근 등에 관한 일
메모리가 할당된 프로세스나 스레드에서 운영체제로 어떠한 요청을 할 때 시스템콜이라는 인터페이스와 커널을 거쳐 운영체제에게 전달된다.
시스템콜은 하나의 추상화 계층이다. 따라서 네트워크 통신이나 데이터베이스와 같은 낮은 단계의 영역 처리에 대한 부분을 많이 신경쓰지 않고 프로그램을 구현할 수 있다는 장점이 있다.
modebit
시스템콜이 작동될 때 modebit를 참고해서 유저 모드와 커널 모드를 구분한다. modebit는 0 또는 1의 값을 가진 플래그 변수이다. I/O 디바이스는 운영체제를 통해서만 작동해야 한다. 만약 유저모드를 기반으로 작동한다면, 공격자가 I/O 디바이스를 조작하기 쉬워진다.
물론 커널 모드를 거쳐 운영체제를 작동한다고 해도 100% 막을 수는 없지만, 운영체제를 통해 작동하게 해야 막기가 쉽다. 이를 위한 장치가 modebit이다. modebit의 0은 커널 모드, 1은 유저 모드라고 설정된다.
유저 프로그램이 카메라를 이용하려고할 때 시스템콜을 호출하고 modebit를 1에서 0으로 바꾸며 커널 모드로 변경한 후 카메라 자원을 이용한 로직을 수행한다.
- 유저 모드 : 유저가 접근할 수 있는 영역을 제한적으로 두며 컴퓨터 자원에 함부로 침범하지 못하는 모드
- 커널 모드 : 모든 컴퓨터 자원에 접근할 수 있는 모드
- 커널 : 운영체제의 핵심 부분이자 시스템콜 인터페이스를 제공하며 보안, 메모리, 프로세스, 파일 시스템, I/O 디바이스, I/O 요청 관리 등 운영체제의 중추적인 역할을 한다.
컴퓨터의 요소
컴퓨터는 CPU, 주기억장치(메모리), 보조기억장치, 입출력장치 등으로 이루어져 있다.
CPU(Central Processing Unit)
CPU는 제어장치, 레지스터, 산술논리연산장치로 구성되어 있는 컴퓨터 장치로, 인터럽트에 의해 단순히 메모리에 존재하는 명령어를 해석해서 실행한다.
관리자 역할을 하는 운영체제의 커널이 프로그램을 메모리에 올려 프로세스로 만들면 CPU가 이를 처리한다.
- 제어장치(CU, Control Unit)
제어장치는 프로세스 조작을 지시하는 CPU의 한 부품이다. 입출력장치 간 통신을 제어하고 명령어들을 읽고 해석하며 데이터 처리를 위한 순서를 결정한다.
- 레지스터
CPU 안에 있는 매우 빠른 임시기억장치이다. CPU와 직접 연결되어 있으므로 연산 속도가 메모리보다 수십 배에서 수백 배까지 빠르다. CPU는 자체적으로 데이터를 저장할 방법이 없어 레지스터를 거쳐 데이터를 전달한다.
- 산술논리연산장치(ALU, Arithmetic Logic Unit)
덧셈, 뺄셈 같은 두 숫자의 산술 연산과 배타적 논리합, 논리곱 같은 논리 연산을 계산하는 디지털 회로이다.
CPU의 연산 처리
1. 제어장치가 메모리에 계산할 값을 로드한다. 또한, 레지스터에도 로드한다.
2. 제어장치가 레지스터에 있는 값을 계산하라고 ALU에 명령한다.
3. 제어장치가 계산된 값을 다시 '레지스터에서 메모리로' 계산한 값을 저장한다.
- 인터럽트
인터럽트는 어떤 신호가 들어왔을 때 CPU를 잠깐 정지시키는 것을 말한다. 키보드, 마우스 등 IO 디바이스로 인한 인터럽트, 0으로 숫자를 나누는 산술 연산에서의 인터럽트, 프로세스 오류 등으로 발생한다.
인터럽트가 발생되면 인터럽트 핸들러 함수가 모여 있는 인터럽트 벡터로 가서 인터럽트 핸들러 함수가 실행된다. 인터럽트 간에는 우선순위가 있고 우선순위에 따라 실행되며 하드웨어 인터럽트, 소프트웨어 인터럽트로 나뉜다.
인터럽트 핸들러 함수는 인터럽트가 발생했을 때 이를 핸들링하기 위한 함수로, 커널 내부의 IRQ를 통해 호출되며 request_irq()를 통해 인터럽트 핸들러 함수를 등록할 수 있다.
하드웨어 인터럽트
키보드를 연결하거나 마우스를 연결하는 일 등의 IO 디바이스에서 발생하는 인터럽트이다. 이 때 순차적인 인터럽트 실행을 중지하고 운영체제에서 시스템콜을 요청해서 원하는 디바이스로 향해 디바이스에 있는 작은 로컬 버퍼에 접근하여 일을 수행한다.
소프트웨어 인터럽트
트랩(trap)이라고도 한다. 프로세스 오류 등으로 프로세스가 시스템콜을 호출할 때 발동한다.
- 타이머(timer)
타이머는 몇 초 안에는 작업이 끝나야 한다는 것을 정하고 특정 프로그램에 시간 제한을 다는 역할을 한다. 시간이 많이 걸리는 프로그램을 작동할 때 제한을 걸기 위해 존재한다.
메모리(memory)
메모리는 전자회로에서 데이터나 상태, 명령어 등을 기록하는 장치로, 보통 RAM(Random Access Memory)를 일컬어 메모리라고도 한다. CPU는 계산을 담당하고, 메모리는 기억을 담당한다. 메모리가 크면 많은 일을 동시에 할 수 있다.
입출력장치
- DMA 컨트롤러
DMA 컨트롤러는 I/O 디바이스가 메모리에 직접 접근할 수 있도록 하는 하드웨어 장치를 뜻한다. CPU에만 너무 많은 인터럽트 요청이 들어오기 때문에 CPU 부하를 막아주며 CPU의 일을 부담하는 보조 일꾼이다. 또한, 하나의 작업을 CPU와 DMA 컨트롤러가 동시에 하는 것을 방지한다.
- 디바이스 컨트롤러
디바이스 컨트롤러는 컴퓨터와 연결되어 있는 IO 디바이스들의 작은 CPU를 말한다. 옆에 붙어 있는 로컬 버퍼는 각 디바이스에서 데이터를 임시로 저장하기 위한 작은 메모리를 뜻한다.
메모리
CPU는 '메모리' 에 올라와 있는 프로그램들의 명령어를 실행한다.
메모리 계층
메모리 계층은 레지스터, 캐시, 메모리, 하드 디스크(저장 장치)로 구성되어 있다.
- 레지스터 : CPU 안에 있는 작은 메모리, 휘발성, 가장 속도 빠름, 기억 용량이 가장 적음
- 캐시 : L1, L2 캐시를 지칭, 휘발성, 속도 빠름, 기억 용량이 적음. 참고로 L3 캐시도 있음
- 주기억장치 : RAM을 가리킴, 휘발성, 속도 보통, 기억 용량 보통
- 보조기억장치 : HDD, SDD를 일컬으며 비휘발성, 속도 낮음, 기억 용량 많음
RAM은 하드디스크로부터 일정량의 데이터를 복사해서 임시 저장하고 이를 필요 시마다 CPU에 빠르게 전달하는 역할을 한다. 계층 위로 올라갈수록 가격은 비싸지고 용량은 작아지고 속도는 빨라진다. 이러한 계층이 있는 이유는 경제성과 캐시 때문이다. 예를 들어 16GB RAM은 8만원이면 사지만, 16GB SSD는 훨씬 싼 가격에 살 수 있다.
또한, 일상생활에서 게임을 실행하다 보면 '로딩 중'이라는 메시지가 나오는데 이는 하드디스크 또는 인터넷에서 데이터를 읽어 RAM으로 전송하는 과정이 아직 끝나지 않음을 의미한다.
캐시(Cache)
캐시는 데이터를 미리 복사해 놓는 임시 저장소이자 빠른 장치와 느린 장치의 속도 차이에 따른 병목 현상을 줄이기 위한 메모리이다. 이를 통해 데이터에 접근하는 시간이 오래 걸리는 경우를 해결하고 무언가를 다시 계산하는 시간을 절약할 수 있다.
메모리와 CPU 사이의 속도 차이가 너무 크기 때문에 중간에 레지스터 계층을 둬서 속도 차이를 해결한다. 속도 차이를 해결하기 위해 계층과 계층 사이에 있는 계층을 캐싱 계층이라고 한다. 예를 들어 캐시 메모리와 보조기억장치 사이에 있는 주기억장치를 보조기억장치의 캐싱 계층이라고 할 수 있다.
- 지역성의 원리
캐시 계층을 두는 것 말고 캐시를 직접 설정할 때는 자주 사용하는 데이터를 기반으로 설정해야 한다. 자주 사용하는 데이터의 근거가 되는 것은 지역성이다. 지역성은 시간 지역성(temporal locality)와 공간 지역성(spatical locality)로 나뉜다.
int[] arr = new int[10];
for(int i = 0; i < 10; i++) {
arr[i] = i+1;
}
시간 지역성
시간 지역성은 최근 사용한 데이터에 다시 접근하려는 특성을 말한다. 예를 들어 for 반복문으로 이루어진 코드 안의 변수 i에 계속해서 접근이 이루어진다. 데이터는 변수 i이고 최근에 사용했기 때문에 계속 접근해서 +1을 연이어 하는 것을 볼 수 있다.
공간 지역성
공간 지역성은 최근 접근한 데이터를 이루고 있는 공간이나 그 가까운 공간에 접근하는 특성이다. 예를 들어 공간을 나타내는 배열 arr의 각 요소들에 i가 할당되며 해당 배열에 연속적으로 접근한다.
- 캐시히트와 캐시미스
캐시에서 원하는 데이터를 찾았다면 캐시히트, 해당 데이터가 캐시에 없다면 주기억장치로 가서 데이터를 찾아오는 것을 캐시미스라고 한다.
캐시히트를 하게 되면 해당 데이터를 제어장치를 거쳐 가져오게 된다. 캐시히트의 경우 위치도 가깝고 CPU 내부 버스를 기반으로 작동하기 때문에 빠르다. 반면 캐시미스가 발생되면 메모리에서 가져오는데, 이는 시스템 버스를 기반으로 작동하기 때문에 느리다.
- 캐시매핑
캐시매핑이란 캐시가 히트되기 위해 매핑하는 방법을 말하며 CPU의 레지스터와 주기억장치(RAM) 간에 데이터를 주고받을 때를 기반으로 설명한다. 레지스터는 주기억장치에 비하면 굉장히 작고 주기억장치는 크기 때문에 작은 레지스터가 캐시 계층으로써 역할을 잘 해주려면 이 매핑을 어떻게 하느냐가 중요하다.
이름 | 설명 |
직접 매핑(directed mapping) | 메모리가 1~100이 있고 캐시가 1~10이 있다면 1:1~10, 2:1~20,... 처럼 고정된 캐시 슬롯에 매핑하는 것이다. 처리가 빠르지만 충돌이 잦다. |
연관 매핑(associative mapping) | 순서를 일치시키지 않고 관련 있는 캐시와 메모리를 매핑한다. 충돌이 적지만 모든 블록을 탐색해야 해서 느리다. |
집합 연관 매핑(set associative mapping) | 직접 매핑과 연관 매핑을 합해놓은 것이다. 순서는 일치시키지만 집합을 둬서 블록화되어 있어 검색은 좀 더 효율적이다. 예를 들어 메모리가 1~100이 있고 캐시가 1~10이 있다면 캐시 1~5에는 1~50 데이터를 무작위로 저장시키는 것이다. |
- 웹 브라우저의 캐시
대표적인 캐시로는 웹 브라우저의 작은 저장소 쿠키, 로컬 스토리지, 세션 스토리지가 있다. 보통 사용자의 커스텀 정보나 인증 모듈 관련 사항들을 웹 브라우저에 저장해서 추후 서버에 요청할 때 자신을 나타내는 아이덴티티나 중복 요청 방지를 위해 쓰이며 오리진(origin)에 종속되어 특정 오리진에만 접근이 가능하다.
쿠키
쿠키는 만료기한이 있는 키-값 저장소이다. same site 옵션을 strict로 설정하지 않았을 경우 다른 도메인에서 요청했을 때 자동 전송되며, 4KB까지 데이터를 저장할 수 있고 만료기한을 정할 수 있다. 쿠키를 설정할 때는 document.cookie로 쿠키를 볼 수 없게 httponly 옵션을 거는 것이 중요하며, 보통 서버에서 만료기한을 정한다.
로컬 스토리지
로컬 스토리지는 만료기한이 없는 키-값 저장소이다. 5KB까지 저장할 수 있고 웹 브라우저를 닫아도 유지된다. HTML5를 지원하지 않는 웹 브라우저에서는 사용할 수 없으며 클라이언트에서만 수정 가능하다.
ex) 다크 모드, 화이트 모드 설정 저장
세션 스토리지
세션 스토리지는 만료기한이 없는 키-값 저장소이다. 탭 단위로 스토리지를 생성하며, 탭을 닫을 때 해당 데이터가 삭제된다. 5KB까지 저장이 가능하며 HTML5를 지원하지 않는 웹 브라우저에서는 사용할 수 없다. 클라이언트에서만 수정 가능하다.
ex) 일시적 폼 데이터 저장
- 데이터베이스의 캐싱 계층
데이터베이스 시스템을 구축할 때도 메인 데이터베이스 위에 레디스(redis) 데이터베이스 계층을 '캐싱 계층'으로 둬서 성능을 향상시키기도 한다.
메모리 관리
운영체제의 대표적인 역할 중 하나가 메모리 관리이다. 컴퓨터 내 한정된 메모리를 극한으로 활용해야 하는 것이다.
가상 메모리(virtual memory)
가상 메모리는 메모리 관리 기법의 하나로 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화하여 이를 사용하는 사용자들에게 매우 큰 메모리로 보이게 만드는 것이다.
가상적으로 주어진 주소를 가상 주소(logical address)라고 하며, 실제 메모리상에 있는 주소를 실제 주소(physical address)라고 한다. 가상 주소는 메모리관리장치(MMU)에 의해 실제 주소로 변환되며, 사용자는 실제 주소를 의식할 필요 없이 프로그램을 구축할 수 있다.
가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 '페이지 테이블'로 관리된다. 이때 속도 향상을 위해 TLB를 쓴다.
TLB는 메모리와 CPU 사이에 있는 주소 변환을 위한 캐시이다. 페이지 테이블에 있는 리스트를 보관하며 CPU가 페이지 테이블까지 가지 않도록 해 속도를 향상시킬 수 있는 캐시 계층이다.
- 스와핑
가상 메모리에는 존재하지만 실제 메모리인 RAM에는 현재 없는 데이터나 코드에 접근할 경우 페이지 폴트가 발생한다. 이 때 메모리에서 당장 사용하지 않는 영역을 하드디스크로 옮기고(swap out) 하드디스크의 일부분을 마치 메모리처럼 불러와 쓰는 것(swap in)을 스와핑(swapping)이라고 한다. 이를 통해 페이지 폴트가 일어나지 않은 것처럼 만든다.
- 페이지 폴트(page fault)
페이지 폴트란 프로세스의 주소 공간에는 존재하지만 RAM에는 없는 데이터에 접근했을 경우에 발생한다. 페이지 폴트와 그로 인한 스와핑은 다음 과정으로 이루어진다.
1. 프로세스가 어떤 데이터를 읽거나 쓰기 위해 특정 가상 주소를 참조한다.
2. CPU는 이 가상 주소를 페이지 테이블을 통해 실제 물리 주소로 변환하려 시도한다.
3. 해당 가상 주소에 대한 페이지가 없다면 트랩이 발생되어 운영체제에게 알린다. (페이지 폴트)
4. 운영체제는 현재 메모리에 있는 페이지 중 당장 필요하지 않은 프레임을 찾는다. 이 때 페이지 교체 알고리즘을 통해 교체할 페이지를 결정한다.
5. 선택된 프레임을 메모리에서 디스크로 옮긴다. (스왑 아웃)
6. 필요한 프레임을 디스크에서 메모리로 가져온다. (스왑 인)
7. 페이지 테이블을 갱신하고 명령어를 재실행한다.
- 페이지(page) : 가상 메모리를 사용하는 최소 크기 단위
- 프레임(frame) : 실제 메모리를 사용하는 최소 크기 단위
스레싱(thrashing)
스레싱은 메모리의 페이지 폴트율이 높은 것을 의미하며, 컴퓨터의 심각한 성능 저하를 초래한다. 스레싱은 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생하는 것이다. 페이지 폴트가 일어나면 CPU 이용률이 낮아진다. CPU 이용률이 낮아지면 운영체제는 "CPU가 한가한가?" 라고 생각하여 가용성을 높이기 위해 더 많은 프로세스를 메모리에 올린다. 악순환이 반복되며 스레싱이 일어나게 된다.
해결하기 위한 방법으로는 메모리를 늘리거나, HDD를 사용한다면 HDD를 SDD로 바꾸는 방법이 있다. 운영체제에서 이를 해결할 수 있는 방법은 작업 세트와 PFF가 있다.
- 작업 세트(woring set)
프로세스의 과거 사용 이력인 지역성(locality)를 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드하는 것이다. 이렇게 하면 탐색에 드는 비용을 줄일 수 있고 스와핑 또한 줄일 수 있다.
- PFF(Page Fault Frequency)
PFF는 페이지 폴트 빈도를 조절하는 방법으로 상한선과 하한선을 만드는 방법이다. 상한선에 도달한다면 프레임을 늘리고 하한선에 도달한다면 프레임을 줄이는 것이다.
메모리 할당
메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당하는데, 연속 할당과 불연속 할당으로 나뉜다.
- 연속 할당
연속 할당은 메모리에 '연속적으로' 공간을 할당하는 것이다. 예를 들어 프로세스 A~D가 순차적으로 공간에 할당하는 것을 볼 수 있다. 이는 메모리를 미리 나누어 관리하는 고정 분할 방식과 매 시점 프로그램의 크기에 맞게 메모리를 분할하여 사용하는 가변 분할 방식이 있다.
고정 분할 방식(fixed partition allocation)
메모리를 미리 나누어 관리하는 방식으로, 메모리가 미리 나뉘어 있기 때문에 융통성이 없다. 내부 단편화가 발생한다.
가변 분할 방식(variable partition allociation)
매 시점 프로그램의 크기에 맞게 동적으로 메모리를 나눠 사용한다. 내부 단편화는 발생하지 않고 외부 단편화는 발생할 수 있다. 최초적합(first fit), 최적적합(best fit), 최악적합(worst fit)이 있다.
이름 | 설명 |
최초적합 | 위쪽이나 아래쪽부터 시작해서 홀을 찾으면 바로 할당 |
최적적합 | 프로세스의 크기 이상인 공간 중 가장 작은 홀부터 할당 |
최악적합 | 프로세스의 크기와 가장 많이 차이가 나는(+) 홀에 할당 |
- 내부 단편화(internal fragmentation) : 메모리를 나눈 크기 - 프로그램 > 0, 내부에 남는 공간이 많이 발생
- 외부 단편화(external fragmentation) : 메모리를 나눈 크기 - 프로그램 < 0, 프로그램이 들어가지 못함
- 홀(hole) : 할당 가능한 비어 있는 메모리 공간
- 불연속 할당
메모리를 연속적으로 할당하지 않는 것으로 현대 운영체제가 쓰는 방법이다. 페이징 기법이 있는데, 메모리를 동일한 크기의 페이지(보통 4KB)로 나누고 프로그램마다 페이지 테이블을 두어 이를 통해 메모리에 프로그램을 할당하는 것이다. 이외에도 세그멘테이션, 페이지드 세그멘테이션이 있다.
페이징(paging)
동일한 크기의 페이지 단위로 나누어 메모리의 서로 다른 위치에 프로세스를 할당한다. 홀의 크기가 균일하지 않은 문제가 없어지지만 주소 변환이 복잡해진다.
세그멘테이션(segmentation)
페이지 단위가 아닌 의미 단위인 세그먼트(segment)로 나누는 방식. 프로세스를 이루는 메모리는 코드, 데이터, 스택, 힙 영역으로 이루어지는데 코드와 데이터로 나누거나 코드 내의 작은 함수를 세그먼트로 놓고 나눌 수도 있다. 이는 공유와 보안 측면에서 장점을 가지지만 홀 크기가 균일하지 않은 단점이 있다.
페이지드 세그멘테이션(paged segmentation)
프로그램을 의미 단위인 세그먼트로 나눠 공유나 보안 측면에 강점을 두고 임의의 길이가 아닌 동일한 크기의 페이지 단위로 나누는 것을 말한다.
- 페이지 교체 알고리즘
스와핑은 페이지 교체 알고리즘을 기반으로 일어난다.
오프라인 알고리즘
먼 미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘으로, 가장 좋은 방법이지만 불가능하다. 다른 알고리즘과의 성능 비교에 대한 상한기준(upper_bound)를 제공한다.
FIFO
가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법
LRU(Least Recently Used)
참조가 가장 오래된 페이지를 바꾸는 방법, '오래된' 것을 파악하기 위해 페이지마다 계수기, 스택을 둬야 하는 문제점이 있다.
NUR(Not Used Recently)
clock 알고리즘이라고 하며 먼저 0과 1을 가진 비트를 둔다. 1은 최근에 참조되었고 0은 참조되지 않음을 의미한다. 시계 방향으로 돌면서 0을 찾고 0을 찾은 순간 프로세스를 교체하고, 해당 부분을 1로 바꾼다.
LFU(Least Frequently Used)
가장 참조 횟수가 적은 페이지를 교체한다. 즉, 많이 사용되지 않은 것을 교체한다.
프로세스와 스레드
프로세스(process)는 실행되고 있는 프로그램을 말하며 CPU 스케줄링의 대상이 되는 작업(task)이라는 용어와 거의 같은 의미이다. 스레드는 프로세스 내 작업의 흐름이다.
프로그램이 메모리에 올라가면 프로세스가 되는 인스턴스화가 일어나고, 이후 운영체제의 CPU 스케줄러에 따라 CPU가 프로세스를 실행한다.
프로세스와 컴파일 과정
예를 들어 프로그램은 구글 크롬 프로그램(chrome.exe)과 같은 실행 파일이며, 이를 두 번 클릭하면 구글 크롬 프로세스로 변환되는 것이다.
프로그램을 만드는 과정은 언어마다 다를 수 있으며 Java를 기준으로 컴파일 과정은 다음과 같다.
1. 개발자가 자바 코드(.java)를 작성한다.
2. 자바 컴파일러가 자바 소스코드(.java)를 읽어 바이트코드(.class)로 컴파일 한다. 바이트코드(.class)파일은 아직 컴퓨터가 읽을 수 없지만 JVM(자바 가상 머신)이 읽을 수 있는 코드이다. (.java -> .class)
3. 컴파일된 바이트코드(.class)를 JVM의 클래스로더(Class Loader)에게 전달한다.
4. 클래스로더는 동적 로딩(Dynamic Loading)을 통해 필요한 클래스들을 로딩 및 링크하여 런타임 데이터 영역(Runtime Data Area의 Method Area), 즉 JVM의 메모리에 올린다.
5. 실행엔진은 JVM 메모리에 올라온 바이트 코드들을 명령어 단위로 하나씩 가져와서 실행한다. 이 때 실행 엔진은 두 가지 방식으로 변경한다.
- 인터프리터 : 바이트 코드 명령어를 하나씩 읽어서 해석하고 실행한다. 하나하나의 실행은 빠르나, 전체적인 실행 속도가 느리다는 단점을 가진다.
- JIT 컴파일러 : 인터프리터의 단점을 보완하기 위해 도입된 방식으로, 바이트 코드 전체를 컴파일하여 바이너리 코드로 변경하고 이후에는 해당 메서드를 더이상 인터프리팅 하지 않고, 바이너리 코드로 직접 실행하는 방식. 하나씩 인터프리팅하여 실행하는 것이 아니라 바이트 코드 전체가 컴파일된 바이너리 코드를 실행하는 것이기 때문에 전체적인 실행속도는 인터프리팅 방식보다 빠르다.
프로세스의 상태
- 생성 상태(create)
생성 상태는 프로세스가 생성된 상태를 의미하며 fork() 또는 exec() 함수를 통해 생성한다. 이 때 PCB가 할당된다.
- fork() 는 부모 프로세스의 주소 공간을 그대로 복사하며, 새로운 자식 프로세스를 생성하는 함수이다. 주소 공간만 복사할 뿐 부모 프로세스의 비동기 작업 등을 상속하지는 않는다.
- exec()는 새롭게 프로세스를 생성하는 함수이다.
- 대기 상태(ready)
대기 상태는 메모리 공간이 충분하면 메모리를 할당받고 아니면 아닌 상태로 대기하고 있으며 CPU 스케줄러로부터 CPU 소유권이 넘어오기를 기다리는 상태이다.
- 대기 중단 상태(ready suspended)
메모리 부족으로 일시 중단된 상태이다.
- 실행 상태(running)
CPU 소유권과 메모리를 할당받고 인스트럭션을 수행 중인 상태이다. 이를 CPU burst가 일어났다고도 표현한다.
- 중단 상태(blocked)
어떤 이벤트가 발생한 이후 기다리며 프로세스가 차단된 상태이다. I/O 디바이스에 의한 인터럽트로 이런 현상이 많이 발생한다. 예를 들어 프린트 인쇄 버튼을 눌렀을 때 프로세스가 잠깐 멈춘 듯한 상태이다.
- 일시 중단 상태(blocked suspended)
대기 중단 상태와 유사하다. 중단된 상태에서 프로세스가 실행되려고 했지만 메모리 부족으로 일시 중단된 상태이다.
- 종료 상태(terminated)
메모리와 CPU 소유권을 모두 놓고 가는 상태이다. 종료는 자연스럽게 종료되는 것도 있지만 부모 프로세스가 자식 프로세스를 강제시키는 비자발적 종료(abort)로 종료되는 것도 있다. 자식 프로세스에 할당된 자원의 한계치를 넘어서거나 부모 프로세스가 종료되거나 사용자가 process.kill 등 여러 명령어로 프로세스를 종료할 때 발생한다.
프로세스 메모리 구조
위에서부터 스택(stack), 힙(heap), 데이터 영역(BSS segment, Data segment), 코드 영역(code segment)로 나뉜다. 스택은 위 주소부터 할당되고 힙은 아래 주소부터 할당된다.
스택과 힙
스택과 힙은 동적 할당이 되며, 동적 할당은 런타임 단계에서 메모리를 할당받는 것이다. 스택은 지역 변수, 매개변수, 실행되는 함수에 의해 늘어들거나 줄어드는 메모리 영역이다. 함수가 호출될 때마다 호출될 때의 환경 등 특정 정보가 스택에 계속해서 저장된다.
또한, 재귀 함수가 호출된다고 했을 때 새로운 스택 프레임이 매번 사용되기 때문에 함수 내의 변수 집합이 해당 함수의 다른 인스턴스 변수를 방해하지 않는다.
힙은 동적으로 할당되는 변수들을 담는다. malloc(), free() 함수를 통해 관리할 수 있으며 동적으로 관리되는 자료 구조의 경우 힙 영역을 사용한다.
데이터 영역과 코드 영역
정적 할당되는 영역이다. 정적 할당은 컴파일 단계에서 메모리를 할당하는 것을 말한다. 데이터 영역은 BSS segment(전역 변수 또는 static, const로 선언되어 있고 0으로 초기화 또는 초기화되어 있지 않은 변수들), Data segment(전역 변수 또는 static, const로 선언되어 있고 0이 아닌 값으로 초기화된 변수들)이다.
code segment는 코드가 들어간다.
PCB(Process Control Block)
운영체제에서 프로세스에 대한 메타데이터를 저장한 '데이터'를 말한다. 프로세스가 생성되면 운영체제는 해당 PCB를 생성한다.
프로그램이 실행되면 프로세스가 생성되고 프로세스 주소 값들에 스택, 힙 등의 구조를 기반으로 메모리가 할당된다. 이 프로세스의 메타데이터들이 PCB에 저장되어 관리된다. 프로세스의 중요한 정보를 포함하기 때문에 일반 사용자들이 접근할 수 없도록 커널 스택의 가장 앞부분에서 관리된다.
메타데이터는 구조화된 데이터이자 데이터를 설명하는 작은 데이터
PCB의 구조
- 프로세스 스케줄링 상태 : 'ready', 'blocked suspended' 등 프로세스의 상태
- 프로세스 ID : 프로세스 ID, 해당 프로세스의 자식 프로세스 ID
- 프로세스 권한 : 컴퓨터 자원 또는 I/O 디바이스에 대한 권한 정보
- 프로그램 카운터 : 프로세스에서 실행해야 할 다음 명령어의 주소에 대한 포인터
- CPU 레지스터 : 프로세스를 실행하기 위해 저장해야 할 레지스터에 대한 정보
- CPU 스케줄링 정보 : CPU 스케줄러에 의해 중단된 시간 등에 대한 정보
- 계정 정보 : 프로세스 실행에 사용된 CPU 사용량, 실행한 유저 정보
- I/O 상태 정보 : 프로세스에 할당된 I/O 디바이스 목록
컨텍스트 스위칭(context switching)
PCB를 기반으로 프로세스의 상태를 저장하고 로드시키는 과정이다. 프로세스에 할당된 시간이 끝나거나 인터럽트에 의해 발생한다. 컴퓨터는 많은 프로그램을 동시에 실행시키는 것처럼 보이지만, 한 시점에 실행되고 있는 프로세스는 단 한 개이며, 동시에 실행되는 것처럼 보이는 것은 다른 프로세스와의 컨텍스트 스위칭이 매우 빠른 속도로 실행되기 때문이다.
사실 현대 컴퓨터는 멀티코어의 CPU를 가지기 때문에 한 시점에 여러 프로세스를 실행할 수 있다.
프로세스가 실행하다가 멈추고 PCB를 저장하고, 다른 프로세스를 로드하여 실행한다. 이 때 유휴 시간(idle time)이 발생하는데, 뿐만 아니라 캐시미스 비용이 발생한다.
컨텍스트 스위칭이 일어날 때 프로세스가 가지고 있는 메모리 주소가 그대로 있으면 잘못된 주소 변환이 생기므로 캐시클리어 과정을 겪게 되고 이 때문에 캐시미스가 발생한다.
참고로 컨텍스트 스위칭은 스레드에서도 일어난다. 스레드는 스택 영역을 제외한 모든 메모리 영역을 공유하기 때문에 스레드 컨텍스트 스위칭 비용이 더 적고 시간도 더 적게 걸린다.
멀티프로세싱
멀티프로세싱은 여러 개의 '프로세스', 즉 동시에 두 가지 이상의 일을 수행할 수 있는 것을 말한다. 이를 통해 하나 이상의 일을 병렬로 처리할 수 있으며 특정 프로세스의 메모리, 프로세스 중 일부에 문제가 발생되더라도 다른 프로세스를 이용해서 처리할 수 있으므로 신뢰성이 높다. 하드웨어 관점에선 여러 프로세서로 처리하는 것을 의미한다.
웹 브라우저는 멀티프로세스 구조를 가지며 브라우저 프로세스, 렌더러 프로세스, 플러그인 프로세스, GPU 프로세스 구조이다.
IPC(Inter Process Communication)
멀티프로세스는 IPC가 가능하며 IPC는 프로세스끼리 데이터를 주고받고 공유 데이터를 관리하는 메커니즘이다.
클라이언트와 서버를 예로 들 수 있는데, 클라이언트는 데이터를 요청하고 서버는 이에 응답하는 것도 IPC이다.
IPC의 종류로는 공유 메모리, 파일, 소켓, 익명 파이프, 명명 파이프, 메시지 큐가 있다. 모두 메모리가 완전히 공유되는 스레드보다는 속도가 떨어진다.
- 공유 메모리(shared memory)
여러 프로세스가 동일한 메모리 블록에 대한 접근 권한이 부여되어 프로세스가 서로 통신할 수 있도록 공유 메모리를 생성해서 통신하는 것이다.
기본적으론 각 프로세스의 메모리를 다른 프로세스가 접근할 수 없지만 공유 메모리를 통해 여러 프로세스가 하나의 메모리를 공유할 수 있다. IPC 방식 중 매개체를 통해 데이터를 주고받는 것이 아닌 메모리 자체를 공유하기 때문에 불필요한 데이터 복사의 오버헤드가 발생하지 않아 가장 빠르며 같은 메모리 영역을 여러 프로세스가 공유하기 때문에 동기화가 필요하다.
- 파일
파일은 디스크에 저장된 데이터 또는 파일 서버에서 제공한 데이터이다. 이를 기반으로 프로세스 간 통신을 한다.
- 소켓
동일 컴퓨터의 다른 프로세스나 네트워크의 다른 컴퓨터로 네트워크 인터페이스를 통해 전송하는 데이터를 의미하며 TCP와 UDP가 있다.
- 익명 파이프(unnamed pipe)
프로세스 간에 FIFO 방식으로 읽히는 임시 공간인 파이프를 기반으로 데이터를 주고받으며, 단방향 방식의 읽기 전용, 쓰기 전용 파이프를 만들어서 작동하는 방식이다.
부모, 자식 프로세스 간에만 사용할 수 있으며 다른 네트워크상에서는 사용이 불가능하다.
- 명명된 파이프(named pipe)
명명된 파이프는 파이프 서버와 하나 이상의 파이프 클라이언트 간의 통신을 위한 명명된 단방향 또는 양방향 파이프이다. 클라이언트/서버 통신을 위한 별도의 파이프를 제공하며, 여러 파이프를 동시에 사용할 수 있다. 컴퓨터의 프로세스끼리 또는 다른 네트워크상의 컴퓨터와도 통신이 가능하다.
- 메시지 큐
메시지 큐는 메시지를 큐(queue) 데이터 구조 형태로 관리하는 것이다. 커널의 전역변수 형태 등 커널에서 전역적으로 관리되며 IPC 방식에 비해 사용 방법이 직관적이고 간단하며 다른 코드의 수정 없이 몇 줄의 코드를 추가시켜 간단하게 메시지 큐에 접근할 수 있다는 장점이 있다.
공유 메모리를 통해 IPC를 구현할 때 쓰기 및 읽기 빈도가 높으면 동기화를 처리하기 어려워지는데 대안으로 메시지 큐를 사용하기도 한다.
스레드와 멀티스레딩
스레드
스레드는 프로세스의 실행 가능한 가장 작은 단위이다. 프로세스는 여러 스레드를 가질 수 있다.
스택, 힙, 데이터, 코드를 각각 생성하는 프로세스와는 달리 스레드는 힙, 데이터, 코드는 서로 공유한다. 그 외의 영역은 각각 생성된다.
멀티스레딩
멀티스레딩은 프로세스 내 작업을 여러 개의 스레드, 멀티스레드로 처리하는 기법이며 스레드끼리 자원을 공유하기 때문에 효율성이 높다. 예를 들어 웹 요청을 처리할 때 새 프로세스를 생성하는 대신 스레드를 사용하는 경우 훨씬 적은 리소스를 소비하며, 한 스레드가 중단(blocked)되어도 다른 스레드는 실행(running) 상태일 수 있기 때문에 중단되지 않은 빠른 처리가 가능하다. 또한, 동시성에도 큰 장점이 있다. 하지만 한 스레드가 문제가 생기면 다른 스레드에도 영향을 끼쳐 스레드로 이루어져 있는 프로세스에 영향을 줄 수 있다.
동시성은 독립적인 작업들은 서로 나누고 동시에 실행되는 것처럼 보여주는 것이다.
공유 자원과 임계 영역
공유 자원(shared resource)
공유 자원은 시스템 안에서 프로세스, 스레드가 함께 접근할 수 있는 모니터, 프린터, 메모리, 파일, 데이터 등의 자원이나 변수이다. 공유 자원을 두 개 이상의 프로세스가 동시에 읽거나 쓰는 상황을 경쟁 상태(race condition)라고 한다. 동시에 접근을 시도할 때 접근 타이밍이나 순서 등이 결괏값에 영향을 줄 수 있는 상태이다.
임계 영역(critical section)
둘 이상의 프로세스, 스레드가 공유 자원에 접근할 때 순서 등의 이유로 결과가 달라지는 코드 영역이다. 임계 영역을 해결하기 위한 방법은 크게 뮤텍스, 세마포어, 모니터가 있으며 모두 상호 배제, 한정 대기, 융통성이란 조건을 만족한다. 이 방법에 토대가 되는 메커니즘은 잠금(lock)이다.
- 상호 배제(mutual exclusion) : 한 프로세스가 임계 영역에 들어갔을 때 다른 프로세스는 들어갈 수 없다.
- 한정 대기(bounded waiting) : 특정 프로세스가 영원히 임계 영역에 들어가지 못하면 안된다.
- 융통성(progress) : 어떠한 프로세스도 임계 영역을 사용하지 않는다면 임계 영역 외부의 어떠한 프로세스도 들어갈 수 있으며 이 때 프로세스끼리 서로 방해하지 않는다.
- 뮤텍스(mutex)
뮤텍스는 프로세스나 스레드가 공유 자원을 lock()을 통해 잠금 설정하고 사용한 후에는 unlock()을 통해 잠금 해제하는 객체이다. 잠금이 설정되면 다른 프로세스나 스레드는 잠긴 코드 영역에 접근할 수 없고 해제는 그 반대이다. 뮤텍스는 잠금 또는 잠금 해제 상태만을 가진다.
- 세마포어(semaphore)
일반화된 뮤텍스이다. 간단한 정수 값과 두 가지 함수 wait(P 함수) 및 signal(V 함수)로 공유 자원에 대한 접근을 처리한다. wait()는 자신의 차례가 올 때까지 기다리는 함수이며, signal()은 다음 프로세스로 순서를 넘겨주는 함수이다.
프로세스나 스레드가 공유 자원에 접근하면 세마포어에서 wait() 작업을 수행하고 프로세스나 스레드가 공유 자원을 해제하면 signal() 작업을 수행한다. 세마포어에는 조건 변수가 없고 프로세스나 스레드가 세마포어 값을 수정할 때 다른 프로세스나 스레드는 동시에 세마포어 값을 수정할 수 없다.
바이너리 세마포어
0과 1의 두 가지 값만 가질 수 있는 세마포어이다. 뮤텍스와 구현의 유사성이 있지만 뮤텍스는 잠금을 기반으로 상호배제가 일어나는 '잠금 메커니즘'이고, 세마포어는 신호를 기반으로 상호배제가 일어나는 '신호 메커니즘'이다.
카운팅 세마포어
여러 개의 값을 가질 수 있는 세마포어이며, 여러 자원에 대한 접근을 제어하는 데 사용된다.
- 모니터
모니터는 둘 이상의 스레드나 프로세스가 공유 자원에 안전하게 접근할 수 있도록 공유 자원을 숨기고 해당 접근에 대해 인터페이스만 제공한다.
모니터는 모니터큐를 통해 공유 자원에 대한 작업들을 순차적으로 처리한다. 세마포어보다 구현하기 쉽고 상호 배제는 자동인 반면에, 세마포어에서는 상호 배제를 명시적으로 구현해야 한다.
교착 상태(Deadlock)
교착 상태는 두 개 이상의 프로세스들이 서로가 가진 자원을 기다리며 중단된 상태를 말한다.
교착 상태의 원인
- 상호 배제 : 한 프로세스가 자원을 독점하고 있으며 다른 프로세스들의 접근은 불가능하다.
- 점유 대기 : 특정 프로세스가 점유한 자원을 다른 프로세스가 요청하는 상태
- 비선점 : 다른 프로세스의 자원을 강제적으로 가져올 수 없음
- 환형 대기 : 프로세스 1은 프로세스 2의 자원을 요구하고, 프로세스 2는 프로세스 1의 자원을 요구하는 등 서로가 서로의 자원을 요구하는 상황
교착 상태 해결 방법
1. 자원 할당 시 조건이 성립되지 않도록 설계한다.
2. 교착 상태 가능성이 없을 때만 자원이 할당되며, 프로세스당 요청할 자원들의 최대치를 통해 자원 할당 가능 여부를 파악하는 '은행원 알고리즘'을 쓴다.
3. 교착 상태가 발생하면 사이클이 있는지 찾아보고 관련 프로세스들을 하나씩 지운다.
4. 교착 상태는 매우 드물게 일어나 이를 처리하는 비용이 더 크기 때문에 사용자가 작업을 종료한다. 예를 들어 프로그램을 실행시키다 '응답 없음' 이 뜨는 경우이다.
CPU 스케줄링 알고리즘
CPU 스케줄러는 CPU 스케줄링 알고리즘에 따라 프로세스에서 해야 하는 일을 스레드 단위로 CPU에 할당한다.
프로그램이 실행될 때는 CPU 스케줄링 알고리즘이 어떤 프로그램에 CPU 소유권을 줄 것인지 결정한다. 이 알고리즘은 CPU 이용률은 높게, 주어진 시간에 많은 일을 하게, 준비 큐(ready queue)에 있는 프로세스는 적게, 응답 시간은 짧게 설정하는 것을 목표로 한다.
비선점형 방식
비선점형 방식은 프로세스가 스스로 CPU 소유권을 포기하는 방식으로, 강제로 프로세스를 중지하지 않는다. 컨텍스트 스위칭으로 인한 부하가 적다.
FCFS
FCFS(First Come, First Served)는 가장 먼저 온 것을 가장 먼저 처리하는 알고리즘이다. 길게 수행되는 프로세스 때문에 '준비 큐에서 오래 기다리는 현상(convoy effect)'이 발생하는 단점이 있다.
SJF
SJF(Shortest Job First)는 실행 시간이 가장 짧은 프로세스를 가장 먼저 실행하는 알고리즘이다. 긴 시간을 가진 프로세스가 실행되지 않는 현상(starvation)이 일어나며 평균 대기 시간이 가장 짧다. 실제로는 실행 시간을 알 수 없기 때문에 과거 실행 시간을 토대로 추측해서 사용한다.
우선순위
기존 SJF 스케줄링의 경우 긴 시간을 가진 프로세스가 실행되지 않는 현상이 있었다. 우선순위는 이 단점을 오래된 작업일수록 '우선순위를 높이는 방법(align)'을 사용해 보완한 알고리즘이다. SJF와 우선순위를 말하는 것 뿐만 아니라 FCFS를 이용해 만들기도 하며, 선점형, 비선점형인 우선순위 스케줄링 알고리즘을 말하기도 한다.
선점형 방식
선점형 방식은 현대 운영체제가 쓰는 방식으로 지금 사용하고 있는 프로세스를 알고리즘에 의해 중단시켜 버리고 강제로 다른 프로세스에 CPU 소유권을 할당하는 방식이다.
라운드 로빈(RR, Round Robin)
라운드 로빈은 현대 컴퓨터가 쓰는 선점형 알고리즘 스케줄링 방법으로 각 프로세스는 동일한 할당 시간을 주고 그 시간 안에 끝나지 않으면 다시 준비 큐(ready queue)의 뒤로 가는 알고리즘이다.
q만큼의 할당 시간이 부여되었고 N개의 프로세스가 운영된다고 하면 (N-1) * q 시간이 지나면 자기 차례가 오게 된다. 할당 시간이 너무 크면 FCFS가 되고 짧으면 컨텍스트 스위칭이 잦아져 오버헤드, 즉 비용이 커진다. 일반적으로 전체 작업 시간은 길어지지만 평균 응답 시간이 짧아진다.
이 알고리즘은 로드밸런서의 트래픽 분산 알고리즘에도 쓰인다.
SRF
SJF는 중간에 실행 시간이 더 짧은 작업이 들어와도 기존 작업을 모두 수행하고 이어나가는데, SRF(Shortest Remaining Time First)는 중간에 더 짧은 작업이 들어오면 수행하던 프로세스를 중지하고 해당 프로세스를 수행하는 알고리즘이다.
다단계 큐
다단계 큐는 우선순위에 따른 준비 큐를 여러 개 사용하고, 큐마다 라운드 로빈이나 FCFS 등 다른 스케줄링 알고리즘을 적용한 것이다. 큐 간의 프로세스 이동이 안되므로 스케줄링 부담이 적지만 유연성이 떨어진다.