Operating System : 운영체제

Operating System

프로세스와 스레드

프로세스(Process)

프로세스실행 중인 프로그램으로 디스크로부터 메모리에 적재되어 CPU 의 할당을 받을 수 있는 것을 말합니다. 운영체제로부터 주소 공간, 파일, 메모리 등을 할당받으며 이것들을 총칭하여 프로세스라고 합니다. 구체적으로 살펴보면 프로세스는 함수의 매개변수, 복귀 주소로컬 변수와 같은 임시 자료를 갖는 프로세스 스택과 전역 변수들을 수록하는 데이터 섹션을 포함합니다. 또한 프로세스는 프로세스 실행 중에 동적으로 할당되는 메모리인 을 포함합니다.

프로세스 제어 블록(Process Control Block, PCB)

PCB 는 특정 프로세스에 대한 중요한 정보를 저장 하고 있는 운영체제의 자료구조입니다. 운영체제는 프로세스를 관리하기 위해 프로세스의 생성과 동시에 고유한 PCB 를 생성 합니다. 프로세스는 CPU 를 할당받아 작업을 처리하다가도 프로세스 전환이 발생하면 진행하던 작업을 저장하고 CPU 를 반환해야 하는데, 이때 작업의 진행 상황을 모두 PCB 에 저장하게 됩니다. 그리고 다시 CPU 를 할당받게 되면 PCB 에 저장되어있던 내용을 불러와 이전에 종료됐던 시점부터 다시 작업을 수행합니다.

PCB 에 저장되는 정보

  • 프로세스 식별자(Process ID, PID) : 프로세스 식별번호
  • 프로세스 상태 : new, ready, running, waiting, terminated 등의 상태를 저장
  • 프로그램 카운터 : 프로세스가 다음에 실행할 명령어의 주소
  • CPU 레지스터
  • CPU 스케쥴링 정보 : 프로세스의 우선순위, 스케줄 큐에 대한 포인터 등
  • 메모리 관리 정보 : 페이지 테이블 또는 세그먼트 테이블 등과 같은 정보를 포함
  • 입출력 상태 정보 : 프로세스에 할당된 입출력 장치들과 열린 파일 목록
  • 어카운팅 정보 : 사용된 CPU 시간, 시간제한, 계정번호 등

스레드(Thread)

스레드프로세스의 실행 단위라고 할 수 있습니다. 한 프로세스 내에서 동작되는 여러 실행 흐름으로 프로세스 내의 주소 공간이나 자원을 공유할 수 있습니다. 스레드스레드 ID, 프로그램 카운터, 레지스터 집합, 그리고 스택으로 구성됩니다. 같은 프로세스에 속한 다른 스레드와 코드, 데이터 섹션, 그리고 열린 파일이나 신호와 같은 운영체제 자원들을 공유합니다. 하나의 프로세스를 다수의 실행 단위로 구분하여 자원을 공유하고 자원의 생성과 관리의 중복성을 최소화하여 수행 능력을 향상시키는 것을 멀티스레딩이라고 합니다. 이 경우 각각의 스레드는 독립적인 작업을 수행해야 하기 때문에 각자의 스택PC 레지스터 값을 갖고 있습니다.

스택을 스레드마다 독립적으로 할당하는 이유

스택함수 호출 시 전달되는 인자, 되돌아갈 주소값 및 함수 내에서 선언하는 변수 등을 저장하기 위해 사용되는 메모리 공간이므로 스택 메모리 공간이 독립적이라는 것은 독립적인 함수 호출이 가능하다는 것이고 이는 독립적인 실행 흐름이 추가되는 것입니다. 따라서 스레드의 정의에 따라 독립적인 실행 흐름을 추가하기 위한 최소 조건으로 독립된 스택을 할당합니다.

PC Register 를 스레드마다 독립적으로 할당하는 이유

PC Register 값스레드가 명령어의 어디까지 수행하였는지를 나타나게 됩니다. 스레드는 CPU 를 할당받았다가 스케줄러에 의해 다시 선점당합니다. 그렇기 때문에 명령어가 연속적으로 수행되지 못하고 어느 부분까지 수행했는지 기억할 필요가 있습니다. 따라서 PC 레지스터를 독립적으로 할당합니다.

멀티 스레드

멀티 스레딩의 장점

프로세스를 이용하여 동시에 처리하던 일을 스레드로 구현할 경우 메모리 공간과 시스템 자원 소모가 줄어들게 됩니다. 스레드 간의 통신이 필요한 경우에도 별도의 자원을 이용하는 것이 아니라 전역 변수의 공간 또는 동적으로 할당된 공간인 Heap 영역을 이용하여 데이터를 주고받을 수 있습니다. 그렇기 때문에 프로세스 간 통신 방법에 비해 스레드 간의 통신 방법이 훨씬 간단합니다. 심지어 스레드의 context switch프로세스 context switch 와는 달리 캐시 메모리를 비울 필요가 없기 때문에 더 빠릅니다. 따라서 시스템의 throughput(처리량) 이 향상되고 자원 소모가 줄어들며 자연스럽게 프로그램의 응답 시간이 단축됩니다. 이러한 장점 때문에 여러 프로세스로 할 수 있는 작업들을 하나의 프로세스에서 스레드로 나눠 수행하는 것입니다.

멀티 스레딩의 문제점

멀티 프로세스 기반으로 프로그래밍할 때는 프로세스 간 공유하는 자원이 없기 때문에 동일한 자원에 동시에 접근하는 일이 없었지만 멀티 스레딩을 기반으로 프로그래밍할 때는 이 부분을 신경써줘야 합니다. 서로 다른 스레드가 데이터 영역을 공유하기 때문에 어떤 스레드다른 스레드에서 사용중인 변수나 자료구조에 접근하여 엉뚱한 값을 읽어오거나 수정할 수 있습니다.

그렇기 때문에 멀티스레딩 환경에서는 동기화 작업이 필요합니다. 동기화를 통해 작업 처리 순서를 컨트롤 하고 공유 자원에 대한 접근을 컨트롤 하는 것입니다. 하지만 이로 인해 병목현상이 발생하여 성능이 저하될 가능성이 높습니다. 그러므로 과도한 락으로 인한 병목현상을 줄여야 합니다.

멀티 스레드 vs 멀티 프로세스

멀티 스레드멀티 프로세스보다 적은 메모리 공간을 차지하고 context switch가 빠르다는 장점이 있지만, 오류로 인해 하나의 스레드가 종료되면 전체 스레드가 종료될 수 있다는 점과 동기화 문제를 안고 있습니다. 반면 멀티 프로세스 방식은 하나의 프로세스가 죽더라도 다른 프로세스에는 영향을 끼치지 않고 정상적으로 수행된다는 장점이 있지만, 멀티 스레드보다 많은 메모리 공간과 CPU 시간을 차지한다는 단점이 존재합니다. 이 두 가지는 동시에 여러 작업을 수행한다는 점에서 같지만 적용해야 하는 시스템에 따라 적합/부적합이 구분됩니다. 따라서 대상 시스템의 특징에 따라 적합한 동작 방식을 선택하고 적용해야 합니다.

스케줄러

스케줄러는 어떤 프로그램의 세부 일정을 주관하는 관리자로 생각하면 이해하기 조금 쉽습니다.

프로세스를 스케줄링하기 위한 Queue에는 세 가지 종류가 존재합니다.

  • Job Queue : 현재 시스템 내에 있는 모든 프로세스의 집합
  • Ready Queue : 현재 메모리 내에 있으면서 CPU 를 잡아서 실행되기를 기다리는 프로세스의 집합
  • Device Queue : Device I/O(Input/Output) 작업을 대기하고 있는 프로세스의 집합

각각의 Queue 에 프로세스들을 넣고 빼주는 스케줄러에도 크게 세 가지 종류가 존재합니다.

장기스케줄러(Long-term scheduler or job scheduler)

작업 스케줄러라고도 부릅니다. 메모리는 한정되어 있는데 많은 프로세스들이 한꺼번에 메모리에 올라올 경우, 대용량 메모리(일반적으로 디스크)에 임시로 저장됩니다. 이 pool 에 저장되어 있는 프로세스 중 어떤 프로세스에 메모리를 할당하여 ready queue 로 보낼지 결정하는 역할을 합니다.

  • 메모리와 디스크 사이의 스케줄링을 담당.
  • 프로세스에 memory(및 각종 리소스)할당(admit)
  • degree of Multiprogramming(실행중인 프로세스의 수) 제어
  • 프로세스의 상태 new -> ready(in memory)

cf) 메모리에 프로그램이 너무 많이 올라가도, 너무 적게 올라가도 성능이 좋지 않은 것입니다. 참고로 time sharing system 에서는 장기 스케줄러가 없습니다. 그냥 곧바로 메모리에 올라가 ready 상태가 됩니다.

단기스케줄러(Short-term scheduler or CPU scheduler)

  • CPU 스케줄러라고도 부릅니다.
  • CPU 와 메모리 사이의 스케줄링을 담당.
  • Ready Queue 에 존재하는 프로세스 중 어떤 프로세스를 running 시킬지 결정.
  • 프로세스에 CPU 를 할당(scheduler dispatch)
  • 프로세스의 상태 ready -> running -> waiting -> ready

중기스케줄러(Medium-term scheduler or Swapper)

  • 여유 공간 마련을 위해 프로세스를 통째로 메모리에서 디스크로 쫓아냄 (swapping)
  • 프로세스에게서 memory할당해제(deallocate)
  • degree of Multiprogramming 제어
  • 현 시스템에서 메모리에 너무 많은 프로그램이 동시에 올라가는 것을 조절하는 스케줄러.
  • 프로세스의 상태 ready -> suspended

Process state - suspended

Suspended(stopped) : 외부적인 이유로 프로세스의 수행이 정지된 상태로 메모리에서 내려간 상태를 의미합니다. 프로세스 전부 디스크로 swap out 됩니다. blocked(waiting) 상태는 다른 I/O 작업을 기다리는 상태이기 때문에 스스로 ready상태로 돌아갈 수 있지만 Suspended는 외부적인 이유로 중단되었기 때문에 스스로 돌아갈 수 없습니다.

CPU 스케줄러

스케줄링 대상은 Ready Queue 에 있는 프로세스들 입니다.

FCFS(First Come First Served)

특징

  • 먼저 온 고객을 먼저 서비스해주는 방식, 즉 먼저 온 순서대로 처리합니다.
  • 비선점형(Non-Preemptive) 스케줄링 일단 CPU 를 잡으면 CPU burst(CPU 명령을 실행하는 것) 가 완료될 때까지 CPU 를 반환하지 않습니다. 할당되었던 CPU 가 반환될 때만 스케줄링이 이루어집니다.

문제점

  • convoy effect 소요시간이 긴 프로세스가 먼저 도달하여 효율성이 낮아지는 현상이 발생합니다.

SJF(Shortest Job First)

특징

  • 다른 프로세스가 먼저 도착했어도 CPU burst time 이 짧은 프로세스에게 먼저 할당합니다.
  • 비선점형(Non-Preemptive) 스케줄링

문제점

  • starvation 효율성을 추구하는게 가장 중요하지만 특정 프로세스가 지나치게 차별받으면 안되는 것입니다. 이 스케줄링은 극단적으로 CPU 사용이 짧은 job 을 선호합니다. 그래서 사용 시간이 긴 프로세스는 거의 영원히 CPU 를 할당받을 수 없습니다.

SRTF(Shortest Remaining Time First)

특징

  • 새로운 프로세스가 도착할 때마다 새로운 스케줄링이 이루어집니다.
  • 선점형 (Preemptive) 스케줄링 현재 수행중인 프로세스의 남은 burst time 보다 더 짧은 CPU burst time 을 가지는 새로운 프로세스가 도착하면 CPU 를 뺏깁니다.

문제점

  • starvation
  • 새로운 프로세스가 도달할 때마다 스케줄링을 다시하기 때문에 CPU burst time(CPU 사용시간)을 측정할 수가 없습니다.

우선순위 스케줄링(Priority Scheduling)

특징

  • 우선순위가 가장 높은 프로세스에게 CPU 를 할당하는 스케줄링입니다. 우선순위란 정수로 표현하게 되고 작은 숫자가 우선순위가 높습니다.
  • 선점형 스케줄링(Preemptive) 방식 더 높은 우선순위의 프로세스가 도착하면 실행중인 프로세스를 멈추고 CPU 를 선점합니다.
  • 비선점형 스케줄링(Non-Preemptive) 방식 더 높은 우선순위의 프로세스가 도착하면 Ready QueueHead 에 넣습니다.

문제점

  • starvation
  • 무기한 봉쇄(Indefinite blocking) 실행 준비는 되어있으나 CPU 를 사용못하는 프로세스를 CPU 가 무기한 대기하는 상태

해결책

  • aging 아무리 우선순위가 낮은 프로세스라도 오래 기다리면 우선순위를 높여줍니다.

Round Robin

특징

  • 현대적인 CPU 스케줄링
  • 프로세스는 동일한 크기의 할당 시간(time quantum)을 갖게 됩니다.
  • 할당 시간이 지나면 프로세스는 선점당하고 ready queue 의 제일 뒤에 가서 다시 줄을 섭니다.
  • Round Robin은 CPU 사용시간이 랜덤한 프로세스들이 섞여있을 경우에 효율적입니다.
  • Round Robin이 가능한 이유는 PCB를 통해 프로세스의 contextsave 할 수 있기 때문입니다.

장점

  • Response time이 빨라집니다.
    n 개의 프로세스가 ready queue에 있고 할당시간이 q(time quantum)인 경우 각 프로세스는 q 단위로 CPU 시간의 1/n 을 얻습니다. 즉, 어떤 프로세스도 (n-1)q time unit 이상 기다리지 않습니다.
  • 프로세스가 기다리는 시간이 CPU 를 사용할 만큼 증가합니다.
    공정한 스케줄링이라고 할 수 있습니다.

주의할 점

설정한 time quantum이 너무 커지면 FCFS와 같아집니다. 또 너무 작아지면 스케줄링 알고리즘의 목적에는 이상적이지만 잦은 context switchoverhead 가 발생합니다. 그렇기 때문에 적당한 time quantum을 설정하는 것이 중요합니다.

동기와 비동기의 차이

비유를 통한 쉬운 설명

해야할 일(task)가 빨래, 설거지, 청소 세 가지가 있다고 가정합니다. 이 일들을 동기적으로 처리한다면 빨래를 하고 설거지를 하고 청소를 합니다. 비동기적으로 일을 처리한다면 빨래하는 업체에게 빨래를 시킵니다. 설거지 대행 업체에 설거지를 시킵니다. 청소 대행 업체에 청소를 시킵니다. 셋 중 어떤 것이 먼저 완료될지는 알 수 없습니다. 업체가 일을 모두 마치면 알려주기로 했으니 그동안 다른 작업을 할 수 있습니다. 이 때는 백그라운드 스레드에서 해당 작업을 처리하는 경우의 비동기를 의미합니다.

Sync vs Async

일반적으로 동기와 비동기의 차이는 메소드를 실행시킴과 동시에 반환 값이 기대되는 경우를 동기 라고 표현하고 그렇지 않은 경우에 대해서 비동기 라고 표현합니다. 동시에라는 말은 실행되었을 때 값이 반환되기 전까지는 blocking되어 있다는 것을 의미합니다. 비동기의 경우, blocking되지 않고 이벤트 큐에 넣거나 백그라운드 스레드에게 해당 task 를 위임하고 바로 다음 코드를 실행하기 때문에 기대되는 값이 바로 반환되지 않습니다.

Reference

프로세스 동기화

Critical Section(임계영역)

멀티 스레딩에 문제점에서 나오듯, 동일한 자원을 동시에 접근하는 작업(e.g. 공유하는 변수 사용, 동일 파일을 사용하는 등)을 실행하는 코드 영역을 Critical Section 이라 칭합니다.

Critical Section Problem(임계영역 문제)

프로세스들이 Critical Section 을 함께 사용할 수 있는 프로토콜을 설계하게 되면 문제가 발생할 수 있습니다.

Requirements(해결을 위한 기본조건)

  • Mutual Exclusion(상호 배제)
    프로세스 P1Critical Section 에서 실행중이라면, 다른 프로세스들은 그들이 가진 Critical Section 에서 실행될 수 없습니다.
  • Progress(진행)
    Critical Section 에서 실행중인 프로세스가 없고, 별도의 동작이 없는 프로세스들만 Critical Section 진입 후보로서 참여될 수 있습니다.
  • Bounded Waiting(한정된 대기)
    P1Critical Section 에 진입 신청 후 부터 받아들여질 때가지, 다른 프로세스들이 Critical Section 에 진입하는 횟수는 제한이 있어야 합니다.

해결책

Lock

  • 하드웨어 기반 해결책으로써, 동시에 공유 자원에 접근하는 것을 막기 위해 Critical Section 에 진입하는 프로세스는 Lock 을 획득하고 Critical Section빠져나올 때, Lock 을 방출함으로써 동시에 접근이 되지 않도록 합니다.

한계

  • 다중처리기 환경에서는 시간적인 효율성 측면에서 적용할 수 없습니다.

Semaphores(세마포)

  • 소프트웨어상에서 Critical Section 문제를 해결하기 위한 동기화 도구

종류

OS 는 Counting/Binary 세마포를 구분합니다

  • 카운팅 세마포(Counting Semaphores) 가용한 개수를 가진 자원 에 대한 접근 제어용으로 사용되며, 세마포는 그 가용한 자원의 개수 로 초기화 됩니다. 자원을 사용하면 세마포가 감소, 방출하면 세마포가 증가 합니다.
  • 이진 세마포(Binary Semaphores) MUTEX 라고도 부르며, 상호배제의 (Mutual Exclusion)의 머릿글자를 따서 만들어졌습니다. 이름 그대로 0 과 1 사이의 값만 사용 가능하며, 다중 프로세스들 사이의 Critical Section 문제를 해결하기 위해 사용합니다.

단점

  • Busy Waiting(바쁜 대기) Spin lock이라고 불리는 Semaphore 초기 버전에서 Critical Section 에 진입해야하는 프로세스는 진입 코드를 계속 반복 실행해야 하며, CPU 시간을 낭비했었습니다. 이를 Busy Waiting이라고 부르며 특수한 상황이 아니면 비효율적입니다. 일반적으로는 Semaphore에서 Critical Section에 진입을 시도했지만 실패한 프로세스에 대해 Block시킨 뒤, Critical Section에 자리가 날 때 다시 깨우는 방식을 사용합니다. 이 경우 Busy waiting으로 인한 시간낭비 문제가 해결됩니다.

Deadlock(교착상태)

  • 세마포가 Ready Queue 를 가지고 있고, 둘 이상의 프로세스가 Critical Section 진입을 무한정 기다리고 있고, Critical Section 에서 실행되는 프로세스는 진입 대기 중인 프로세스가 실행되야만 빠져나올 수 있는 상황을 지칭합니다.

모니터

  • 고급 언어의 설계 구조물로서, 개발자의 코드를 상호배제 하게끔 만든 추상화된 데이터 형태입니다.
  • 공유자원에 접근하기 위한 키 획득과 자원 사용 후 해제를 모두 처리합니다. (세마포어는 직접 키 해제와 공유자원 접근 처리가 필요합니다. )

뮤텍스(Mutex) / 세마포어(Semaphore) / 모니터(Monitor)에 대한 더 자세한 설명

메모리 관리 전략

메모리 관리 배경

각각의 프로세스 는 독립된 메모리 공간을 갖고, 운영체제 혹은 다른 프로세스의 메모리 공간에 접근할 수 없는 제한이 걸려있습니다. 단지, 운영체제 만이 운영체제 메모리 영역과 사용자 메모리 영역의 접근에 제약을 받지 않습니다.

Swapping : 메모리의 관리를 위해 사용되는 기법. 표준 Swapping 방식으로는 round-robin 과 같은 스케줄링의 다중 프로그래밍 환경에서 CPU 할당 시간이 끝난 프로세스의 메모리를 보조 기억장치(e.g. 하드디스크)로 내보내고 다른 프로세스의 메모리를 불러 들일 수 있습니다.

이 과정을 swap (스왑시킨다) 이라 합니다. 주 기억장치(RAM)으로 불러오는 과정을 swap-in, 보조 기억장치로 내보내는 과정을 swap-out 이라 합니다. swap 에는 큰 디스크 전송시간이 필요하기 때문에 현재에는 메모리 공간이 부족할때 Swapping 이 시작됩니다.

단편화 (Fragmentation)

프로세스들이 메모리에 적재되고 제거되는 일이 반복되다보면, 프로세스들이 차지하는 메모리 틈 사이에 사용 하지 못할 만큼의 작은 자유공간들이 늘어나게 되는데, 이것이 단편화 입니다. 단편화는 2 가지 종류로 나뉩니다.

Process A free Process B free Process C free Process D
             
  • 외부 단편화 : 메모리 공간 중 사용하지 못하게 되는 일부분. 물리 메모리(RAM)에서 사이사이 남는 공간들을 모두 합치면 충분한 공간이 되는 부분들이 분산되어 있을때 발생한다고 볼 수 있습니다.
  • 내부 단편화 : 프로세스가 사용하는 메모리 공간 에 포함된 남는 부분. 예를들어 메모리 분할 자유 공간이 10,000B 있고 Process A 가 9,998B 사용하게되면 2B 라는 차이 가 존재하고, 이 현상을 내부 단편화라 칭합니다.

압축 : 외부 단편화를 해소하기 위해 프로세스가 사용하는 공간들을 한쪽으로 몰아, 자유공간을 확보하는 방법론 이지만, 작업효율이 좋지 않습니다. (위의 메모리 현황이 압축을 통해 아래의 그림 처럼 바뀌는 효과를 가질 수 있습니다)

Process A Process B Process C Process D free
         

Paging(페이징)

하나의 프로세스가 사용하는 메모리 공간이 연속적이어야 한다는 제약을 없애는 메모리 관리 방법입니다. 외부 단편화와 압축 작업을 해소 하기 위해 생긴 방법론으로, 물리 메모리는 Frame 이라는 고정 크기로 분리되어 있고 논리 메모리(프로세스가 점유하는)는 페이지라 불리는 고정 크기의 블록으로 분리됩니다.(페이지 교체 알고리즘에 들어가는 페이지)

페이징 기법을 사용함으로써 논리 메모리는 물리 메모리에 저장될 때, 연속되어 저장될 필요가 없고 물리 메모리의 남는 프레임에 적절히 배치됨으로 외부 단편화를 해결할 수 있는 큰 장점이 있습니다.

하나의 프로세스가 사용하는 공간은 여러개의 페이지로 나뉘어서 관리되고(논리 메모리에서), 개별 페이지는 순서에 상관없이 물리 메모리에 있는 프레임에 mapping 되어 저장된다고 볼 수 있습니다.

  • 단점 : 내부 단편화 문제의 비중이 늘어나게 됩니다. 예를들어 페이지 크기가 1,024B 이고 프로세스 A 가 3,172B 의 메모리를 요구한다면 3개의 페이지 프레임(1,024 * 3 = 3,072) 하고도 100B 가 남기때문에 총 4 개의 페이지 프레임이 필요합니다. 결론적으로 4 번째 페이지 프레임에는 924B(1,024 - 100)의 여유 공간이 남게 되는 내부 단편화 문제가 발생하는 것입니다.

Segmentation(세그멘테이션)

페이징에서처럼 논리 메모리(페이지)와 물리 메모리를 같은 크기의 블록이 아닌, 논리 메모리를 서로 다른 크기의 논리적 단위인 세그먼트(Segment)로 분할하고 메모리를 할당하며 주소 변환을 하게 됩니다. 세그먼트들의 크기가 서로 다르기 때문에 메모리를 페이징 기법처럼 미리 분할해 둘 수 없고, 메모리에 적재될 때 빈 공간을 찾아 할당하는 사용자 관점의 가상메모리 관리 기법입니다.

메모리에 mapping하기위해 사용자가 두 개의 주소로 지정(세그먼트 번호 + 변위)하고 세그먼트 테이블에는 각 세그먼트의 기준(세그먼트의 시작 물리 주소)과 한계(세그먼트의 길이)를 저장합니다.

  • 단점 : 서로 다른 크기의 세그먼트들이 메모리에 적재되고 제거되는 일이 반복되다 보면, 자유 공간들이 많은 수의 작은 조각들로 나누어져 못 쓰게 될 수도 있습니다.(외부 단편화)

가상 메모리

다중 프로그래밍을 실현하기 위해서는 많은 프로세스들을 동시에 메모리에 올려두어야 합니다. 가상메모리는 프로세스 전체가 메모리 내에 올라오지 않더라도 실행이 가능하도록 하는 기법 이며, 프로그램이 물리 메모리보다 커도 된다는 주요 장점이 있습니다.

가상 메모리 개발 배경

이전에는 실행되는 코드의 전부를 물리 메모리에 존재시켜야했고 메모리 용량보다 큰 프로그램은 실행시킬 수 없었습니다. 또한, 여러 프로그램을 동시에 메모리에 올리기에는 용량의 한계와, 페이지 교체등의 성능 이슈가 발생하게 됩니다. 또한, 가끔만 사용되는 코드가 메모리들을 차지하는 것을 보면, 불필요하게 전체의 프로그램이 메모리에 올라와 있어야 할 필요가 없다는 것을 알 수 있습니다.

프로그램의 일부분만 메모리에 올릴 수 있다면…

  • 물리 메모리 크기에 제약받지 않게 됩니다.
  • 더 많은 프로그램을 동시에 실행할 수 있게 됩니다. 이에 따라 응답시간은 유지되고, CPU 이용률처리율은 높아집니다.
  • swap에 필요한 입출력이 줄어들기 때문에 프로그램들이 빠르게 실행됩니다.

가상 메모리가 하는 일

가상 메모리는 실제의 물리 메모리 개념과 사용자의 논리 메모리 개념을 분리한 것으로 정리할 수 있습니다. 이로써 작은 메모리를 가지고도 얼마든지 큰 가상 주소 공간을 프로그래머에게 제공할 수 있습니다.

가상 주소 공간

한 프로세스가 메모리에 저장되는 논리적인 모습을 가상메모리에 구현한 공간입니다. 프로세스가 요구하는 메모리 공간을 가상메모리에서 제공함으로서 현재 직접적으로 필요치 않은 메모리 공간은 실제 물리 메모리에 올리지 않는 것으로 물리 메모리를 절약할 수 있습니다.

예를 들어, 한 프로그램이 실행되며 논리 메모리로 100KB 가 요구됐을 때, 실행까지에 필요한 메모리 공간(Heap영역, Stack 영역, 코드, 데이터)의 합이 40KB 이라면, 실제 물리 메모리에는 40KB 만 올라가 있고, 나머지 60KB 만큼은 필요시에 물리메모리에 요구한다고 이해할 수 있습니다.

Stack free (60KB) Heap Data Code
         

프로세스간의 페이지 공유

가상 메모리는 시스템 라이브러리가 여러 프로세스들 사이에 공유될 수 있도록 합니다. 시스템 라이브러리는 공유 객체를 가상 주소 공간으로 매핑하여 여러 프로세스에서 공유하게 할 수 있습니다. 각 프로세스들은 공유 라이브러리를 자신의 가상 주소 공간에 두고 사용하는 것처럼 인식하지만, 실제 라이브러리가 올라가있는 물리 메모리 페이지들은 모든 프로세스에 공유되고 있습니다.

  • 가상 메모리는 프로세스들이 메모리를 공유하는 것을 가능하게 하고,프로세스들은 공유 메모리를 통해 통신할 수 있습니다. 이 또한, 각 프로세스들은 각자 자신의 주소 공간처럼 인식하지만, 실제 물리 메모리는 공유되고 있습니다.
  • 프로세스 생성 중에 fork()를 통해 시스템 호출로 페이지들을 공유할 수 있으므로 프로세스 생성 속도가 빨라집니다.

인터럽트

인터럽트란, CPU가 프로그램을 실행하고 있을 때, 입출력 하드웨어 등의 장치에 문제가 발생하거나 예외상황이 발생하여 처리가 필요할 경우, 현재 실행중인 작업을 중단하고 발생된 상황을 처리한 후 다시 실행중인 작업으로 복귀하는 것을 말합니다.

인터럽트는 외부 인터럽트내부 인터럽트로 구분하는데, 외부 인터럽트하드웨어 인터럽트, 내부 인터럽트소프트웨어 인터럽트라고 합니다.

하드웨어 인터럽트 (Hardware Interrupt)

  • 그냥 인터럽트라 하면, 일반적으로 하드웨어 인터럽트를 의미합니다.

  • 외부 인터럽트프로그램 외부에서 일어나는 인터럽트입니다.

  • 기계 검사 인터럽트, 입출력 인터럽트, 전원 이상 인터럽트 등이 있습니다.

소프트웨어 인터럽트 (SWI, Software Interrupt)

  • 내부 인터럽트소프트웨어 인터럽트와 같은 개념이라고 보면 됩니다.
  • 트랩(Trap)이라고도 하며, 프로그램 내부에서 일어나는 인터럽트입니다. 예외시스템 콜이 있습니다.
  • 예외 (Exception) : 메모리 참조 오류, 0으로 나누기, Overflow, Underflow 등의 경우에서 발생하는 인터럽트
  • 시스템 콜 (System Call) : 사용자가 의도적으로 일으킨 인터럽트

인터럽트와 트랩의 차이점

  • 인터럽트 : 하드웨어적 흐름의 변화 / 프로그램 외부(I/O 장치, 디스크 등)에서 발생하며, 발생 시점이 일정하지 않기 때문에 비동기적입니다.

  • 트랩 : 소프트웨어적 흐름의 변화 / 소프트웨어 인터럽트라고도 하며, 프로그램 내부에서 일어나는 에러입니다. 발생 시점이 프로그램의 일정한 지점이기 때문에 동기적입니다. 즉, 고정된 영역에서 일어납니다.

인터럽트 과정

process A 실행 중 디스크에서 어떤 데이터를 읽어오라는 명령을 받았다고 가정해봅니다.

  • process Asystem call을 통해 인터럽트를 발생시킵니다.
  • CPU는 현재 진행 중인 기계어 코드를 완료합니다.
  • 현재까지 수행중이었던 상태를 해당 process의 PCB(Process Control Block)에 저장합니다. (수행중이던 MEMORY주소, 레지스터 값, 하드웨어 상태 등…)
  • PC(Program Counter, IP)에 다음에 실행할 명령의 주소를 저장합니다.
  • 인터럽트 벡터(인터럽트 발생시 처리해야 할 인터럽트 핸들러의 주소를 인터럽트 별로 보관하고 있는 테이블)를 읽고 ISR 주소값을 얻어 ISR(Interrupt Service Routine)(인터럽트를 처리하기 위해 커널이 실행하는 함수)로 점프하여 루틴을 실행합니다.
  • 해당 코드를 실행합니다.
  • 해당 일을 다 처리하면, 대피시킨 레지스터를 복원합니다.
  • ISR의 끝에 IRET(Interrupt Return) 명령어에 의해 인터럽트가 해제 됩니다.
  • IRET 명령어가 실행되면, 대피시킨 PC 값을 복원하여 이전 실행 위치로 복원합니다.

Demand Paging(요구 페이징)

프로그램 실행 시작 시에 프로그램 전체를 디스크에서 물리 메모리에 적재하는 대신, 초기에 필요한 것들만 적재하는 전략을 요구 페이징이라 하며, 가상 메모리 시스템에서 많이 사용됩니다. 그리고 가상 메모리는 대개 페이지로 관리됩니다. 요구 페이징을 사용하는 가상 메모리에서는 실행과정에서 필요해질 때 페이지들이 적재됩니다. 한 번도 접근되지 않은 페이지는 물리 메모리에 적재되지 않습니다.

프로세스 내의 개별 페이지들은 페이저(pager)에 의해 관리됩니다. 페이저는 프로세스 실행에 실제 필요한 페이지들만 메모리로 읽어옴으로써, 사용되지 않을 페이지를 가져오는 시간낭비와 메모리 낭비를 줄일 수 있습니다.

페이지 교체

CPU에서 요청한 페이지가 현재 메모리에 없어 유효-무효 비트가 무효로 세팅되어 있는 경우를 말합니다.

요구 페이징 에서 언급된대로 프로그램 실행시에 모든 항목이 물리 메모리에 올라오지 않기 때문에, 프로세스의 동작에 필요한 페이지를 요청하는 과정에서 page fault(페이지 부재)가 발생하게 되면, 원하는 페이지를 보조저장장치에서 가져오게 됩니다.(이 과정에서 막대한 overhead가 발생하기 때문에 요구 페이징 기법은 페이지 부재 발생률이 성능에 큰 영향을 끼칩니다.) 하지만, 만약 물리 메모리가 모두 사용중인 상황이라면, 페이지 교체가 이뤄져야 합니다.(또는, 운영체제가 프로세스를 강제 종료하는 방법이 있습니다.)

페이지 부재 시 동작 과정

  1. MMU(Memory Management Unit)가 페이지 부재 트랩을 발생시킵니다. (트랩=소프트웨어 인터럽트)
  2. 인터럽트로 인해 커널모드(운영체제가 CPU의 제어권을 가지고 명령을 수행하는 모드)로 전환되어 OS의 페이지 부재 처리 루틴이 호출됩니다.
  3. 해당 부재 페이지의 보호비트를 참조해 접근이 가능한지 체크합니다.
  4. 물리메모리에 비어있는 프레임을 할당받고 그곳에 페이지를 읽어옵니다.
  5. 페이지를 읽어오는 동안 프로세스는 wait상태가 됩니다.
  6. 디스크 입출력 완료시 인터럽트를 발생시키고 해당 페이지의 유효-무효 비트를 유효로 세팅합니다.

페이지 교체의기본적인 방법

물리 메모리가 모두 사용중인 상황에서의 메모리 교체 흐름입니다.

  1. 디스크에서 필요한 페이지의 위치를 찾습니다.
  2. 빈 페이지 프레임을 찾습니다.
    1. 페이지 교체 알고리즘을 통해 희생될(victim) 페이지를 고릅니다.
    2. 희생될 페이지를 디스크에 기록하고, 관련 페이지 테이블을 수정합니다.
  3. 새롭게 비워진 페이지 테이블 내 프레임에 새 페이지를 읽어오고, 프레임 테이블을 수정합니다.
  4. 사용자 프로세스를 재시작합니다.

페이지 교체 알고리즘

FIFO 페이지 교체

가장 간단한 페이지 교체 알고리즘으로 FIFO(first-in first-out)의 흐름을 가집니다. 즉, 먼저 물리 메모리에 들어온 페이지 순서대로 페이지 교체 시점에 먼저 나가게 된다는 것입니다.

  • 장점
    • 이해하기도 쉽고, 프로그램하기도 쉽습니다.
  • 단점
    • 오래된 페이지가 항상 불필요하지 않은 정보를 포함하지 않을 수 있습니다(초기 변수 등)
    • 처음부터 활발하게 사용되는 페이지를 교체해서 페이지 부재율을 높이는 부작용을 초래할 수 있습니다.
    • Belady의 모순: 페이지를 저장할 수 있는 페이지 프레임의 갯수를 늘려도 되려 페이지 부재가 더 많이 발생하는 모순이 존재합니다.
최적 페이지 교체(Optimal Page Replacement)

Belady의 모순을 확인한 이후 최적 교체 알고리즘에 대한 탐구가 진행되었고, 모든 알고리즘보다 낮은 페이지 부재율을 보이며 Belady의 모순이 발생하지 않습니다. 이 알고리즘의 핵심은 앞으로 가장 오랫동안 사용되지 않을 페이지를 찾아 교체하는 것입니다. 주로 비교 연구 목적을 위해 사용합니다.

  • 장점
    • 알고리즘 중 가장 낮은 페이지 부재율을 보장합니다.
  • 단점
    • 구현의 어려움이 있습니다. 모든 프로세스의 메모리 참조의 계획을 미리 파악할 방법이 없기 때문입니다.
LRU 페이지 교체(LRU Page Replacement)

LRU: Least-Recently-Used 최적 알고리즘의 근사 알고리즘으로, 가장 오랫동안 사용되지 않은 페이지를 선택하여 교체합니다.

  • 특징
    • 대체적으로 FIFO 알고리즘보다 우수하고, OPT알고리즘보다는 그렇지 못한 모습을 보입니다.
LFU 페이지 교체(LFU Page Replacement)

LFU: Least Frequently Used 참조 횟수가 가장 적은 페이지를 교체하는 방법입니다. 활발하게 사용되는 페이지는 참조 횟수가 많아질 거라는 가정에서 만들어진 알고리즘입니다.

  • 특징
    • 어떤 프로세스가 특정 페이지를 집중적으로 사용하다, 다른 기능을 사용하게되면 더 이상 사용하지 않아도 계속 메모리에 머물게 되어 초기 가정에 어긋나는 시점이 발생할 수 있습니다.
    • 최적(OPT) 페이지 교체를 제대로 근사하지 못하기 때문에, 잘 쓰이지 않습니다.
MFU 페이지 교체(MFU Page Replacement)

MFU: Most Frequently Used 참조 회수가 가장 작은 페이지가 최근에 메모리에 올라왔고, 앞으로 계속 사용될 것이라는 가정에 기반합니다.

  • 특징
    • 최적(OPT) 페이지 교체를 제대로 근사하지 못하기 때문에, 잘 쓰이지 않습니다.

캐시의 지역성

캐시의 지역성 원리

캐시 메모리는 속도가 빠른 장치와 느린 장치간의 속도 차에 따른 병목 현상을 줄이기 위한 범용 메모리입니다. 이러한 역할을 수행하기 위해서는 CPU 가 어떤 데이터를 원할 것인가를 어느 정도 예측할 수 있어야 합니다. 캐시의 성능은 작은 용량의 캐시 메모리에 CPU 가 이후에 참조할, 쓸모 있는 정보가 어느 정도 들어있느냐에 따라 좌우되기 때문입니다.

이 때 적중율(Hit rate)을 극대화 시키기 위해 데이터 지역성(Locality)의 원리를 사용합니다. 지역성의 전제조건으로 프로그램은 모든 코드나 데이터를 균등하게 Access 하지 않는다는 특성을 기본으로 합니다. 즉, Locality란 기억 장치 내의 정보를 균일하게 Access 하는 것이 아닌 어느 한 순간에 특정 부분을 집중적으로 참조하는 특성인 것입니다.

이 데이터 지역성은 대표적으로 시간 지역성(Temporal Locality)공간 지역성(Spatial Locality)으로 나뉩니다.

  • 시간 지역성 : 최근에 참조된 주소의 내용은 곧 다음에 다시 참조되는 특성.
  • 공간 지역성 : 대부분의 실제 프로그램이 참조된 주소와 인접한 주소의 내용이 다시 참조되는 특성

Caching line

언급했듯이 캐시(cache)는 프로세서 가까이에 위치하면서 빈번하게 사용되는 데이터를 놔두는 장소입니다. 하지만 캐시가 아무리 가까이 있더라도 찾고자 하는 데이터가 어느 곳에 저장되어 있는지 몰라 모든 데이터를 순회해야 한다면 시간이 오래 걸리게 됩니다. 즉, 캐시에 목적 데이터가 저장되어 있다면 바로 접근하여 출력할 수 있어야 캐시가 의미 있어진다는 것입니다.

그렇기 때문에 캐시에 데이터를 저장할 때 특정 자료구조를 사용하여 묶음으로 저장하게 되는데 이를 캐싱라인 이라고 합니다. 프로세스는 다양한 주소에 있는 데이터를 사용하므로 빈번하게 사용하는 데이터의 주소 또한 흩어져 있습니다. 따라서 캐시에 저장하는 데이터에는 데이터의 메모리 주소 등을 기록해 둔 태그를 달아놓을 필요가 있습니다. 이러한 태그들의 묶음을 캐싱 라인이라고 하고 메모리로부터 가져올 때도 캐싱 라인을 기준으로 가져옵니다. 종류로는 대표적으로 세 가지 방식이 존재합니다.

  1. Full Associative : 비어있는 캐시메모리가 있으면 그냥 마음대로 주소를 저장하는 방식
  2. Direct Map : 여러개 주소가 캐시메모리의 한 주소에 대응되는 다대일(n:1)방식
  3. Set Associative : Direct Mapping과 Associative를 섞은 것입니다. 특정 로우를 지정해서 그 로우안의 어떤 열이든 비어있으면 저장

참고 : https://cocoon1787.tistory.com/125

https://github.com/JaeYeopHan/Interview_Question_for_Beginner/tree/master/OS

https://sycho-lego.tistory.com/10

https://velog.io/@adam2/OS%EA%B8%B0%EC%B4%88-%EB%A9%94%EB%AA%A8%EB%A6%AC-%EA%B4%80%EB%A6%AC%EA%B0%80%EC%83%81-%EB%A9%94%EB%AA%A8%EB%A6%AC-%ED%8E%98%EC%9D%B4%EC%A7%80-%EB%B6%80%EC%9E%AC-%ED%8E%98%EC%9D%B4%EC%A7%80-%EA%B5%90%EC%B1%84-%EC%8A%A4%EB%A0%88%EC%8B%B1

https://aidanbae.github.io/code/devops/computer/cpucache/

https://m.blog.naver.com/PostView.nhn?blogId=world5859&logNo=221418107370&proxyReferer=https:%2F%2Fwww.google.com%2F

https://rebas.kr/862

https://velog.io/@adam2/%EC%9D%B8%ED%84%B0%EB%9F%BD%ED%8A%B8

댓글남기기