메모리(Memory)
메모리는 일시적 또는 장기간 데이터를 저장하는 디지털 시스템이다.
CPU는 그저 메모리에 올라와 있는 프로그램의 명령어들을 실행할 뿐이기 때문에 데이터와 명령어를 저장하기 위해서는 메모리가 가장 중요한 부분이다.
메모리 계층
메모리 계층은 레지스터, 캐시, 메모리, 저장장치로 구성되어 있다.
메모리 계층 구조는 컴퓨터에서 사용 가능한 메모리를 최적화하는 데 도움이 되므로 컴퓨터 메모리에서 가장 필요한 것 중에 하나이다.
메모리에는 여러 수준이 있으며 각 수준은 크기, 비용 등이 다르다. 계층 위로 갈수록 비용이 높고 속도가 빠르며 아래로 갈수록 용량은 커지지만 속도가 낮은 대신 가격이 저렴해진다.
간단히 표로 정리하면 아래와 같다.
분류 | 휘발성 | 속도 | 용량 |
CPU 레지스터 | O | 가장 빠름 | 가장 적은 용량 |
캐시(L1, L2, L3) | O | 빠름 | 적은 용량 |
주기억장치(메모리, RAM) | O | 보통 | 보통 용량 |
보조기억장치(HDD, SSD) | O | 낮음 | 가장 많은 용량 |
레지스터(Registers)
레지스터는 CPU에 위치한 작은 임시 기억 장치이다. 가장 자주 사용되는 CPU와 직접 연결되어 있으므로 연산 속도가 메모리보다 수십 배에서 수백 배까지 빠르다.
CPU는 자체적으로 데이터를 저장할 방법이 없기 때문에 레지스터를 거쳐 데이터를 전달한다.
캐시(Cache)
데이터를 미리 복사해 놓는 임시 저장소이자 빠른 장치와 느린 장치에서 속도 차이에 따른 병목 현상을 줄이기 위한 메모리이다.
캐시 메모리의 특징
캐시 메모리는 데이터를 접근하는 시간이 오래 걸리는 경우를 해결하고 무언가를 다시 계산하는 시간을 절약한다.
또한 RAM과 CPU 사이의 버퍼 역할을 하여 속도차에 따른 병목 현상을 줄일 수 있다.
캐시 메모리에는 자주 요청되는 데이터와 명령을 저장하여 필요할 때 CPU에서 즉시 사용할 수 있다.
캐시 메모리는 메인 메모리나 디스크 메모리보다 비싸지만 CPU 레지스터보다 경제적이다. 또한 CPU 레지스터보다는 느리지만 그 외에 다른 메모리 장치보다 훨씬 빠른 속도를 가지고 있다.
CPU에는 캐시 메모리가 2 ~ 3개 정도 사용되는데 이를 L1, L2, L3 캐시 메모리라고 부르며 1차 캐시, 2차 캐시라고도 불린다.
L1 캐시
L1 캐시는 일반적으로 CPU 칩 안에 내장되어 데이터 사용 및 참조에 가장 먼저 사용된다.
L1 캐시는 보통 8 ~ 64KB 정도의 용량을 가지게 되며 CPU가 가장 빠르게 접근하게 되는 캐시 메모리이다.
만약 L1 캐시에서 데이터를 찾지 못하면 L2 캐시로 넘어간다.
L2 캐시
L2 캐시는 용도와 역할은 L1 캐시와 비슷하지만 속도는 그보다 느리다. 하지만 L1 캐시보다 더 높은 용량을 제공 하는데 보통 64KB ~ 4MB 정도 사용할 수 있다.
L2 캐시는 CPU 회로판에 별도의 칩으로 내장된다.
L2 캐시는 L1 캐시보다 느린 것이지 일반적인 RAM보다는 빠르다.
L3 캐시
앞서 설명한 L1, L2 캐시와 동일한 원리로 작동한다.
CPU가 아닌 메인보드에 내장되는 경우가 많다.
캐시 메모리의 장단점
캐시 메모리의 장점
- 캐시 메모리는 주 메모리와 보조 메모리에 비해 속도가 빠르다.
- 저장된 프로그램은 더 짧은 시간에 실행될 수 있다.
- 데이터 액세스 시간은 메인 메모리의 데이터 액세스 시간보다 짧다.
- CPU에서 정기적으로 사용하는 데이터와 명령을 저장하므로 CPU 성능을 향상시킨다.
캐시 메모리의 단점
- 주 메모리와 보조 메모리보다 비용이 더 많이 든다.
- 데이터가 메모리에 임시로 저장되기 때문에 시스템이 꺼질 때마다 캐시 메모리에 저장된 데이터와 명령이 휘발된다.
- 캐시 메모리의 높은 비용으로 인해 컴퓨터 시스템 가격이 상승한다.
지역성(Locality)의 원리
캐시를 직접 설정할 때 지역성을 고려해야 한다.
지역성이란 기억장치 내의 정보를 균일하게 접근하는 것이 아닌 어느 한순간에 특정 부분을 집중적으로 참조하는 특성을 말한다.
캐시 메모리를 사용할 때 자주 사용하는 데이터를 기반으로 설정해야 하는데 지역성이 그 근거가 되어준다.
지역성은 시간 지역성과 공간 지역성으로 나뉜다.
시간 지역성
최근 사용한 데이터에 다시 접근하려는 특성을 말한다.
메모리 상의 같은 주소에 여러 차례 읽기 쓰기를 수행할 경우
특정 데이터가 한 번 접근되었을 경우 가까운 미래에 또 한 번 데이터에 접근할 가능성이 높은 것
공간 지역성
최근 접근한 데이터를 이루고 있는 공간이나 그 가까운 공간에 접근하는 특성을 말한다.
특정 데이터와 가까운 주소가 순서대로 접근되었을 경우
CPU 캐시나 디스크 캐시의 경우 한 메모리 주소에 접근할 때 그 주소뿐 아니라 해당 블록을 전부 캐시에 가져오게 된다.
이때 메모리 주소를 오름차순이나 내림차순으로 접근한다면 캐시에 이미 저장된 같은 블록의 데이터를 접근하게 되므로 캐시의 효율성이 크게 향상된다.
캐시히트와 캐시미스
캐시에서 원하는 데이터를 찾았다면 캐시히트, 해당 데이터가 캐시에 없다면 주 메모리로 가서 데이터를 찾아오는 것을 캐시미스라고 한다.
캐시 매핑
캐시가 히트되기 위해 매핑하는 방법을 말하며 CPU의 레지스터와 주 메모리 간에 데이터를 주고받을 때를 기반으로 설명한다.
레지스터는 주 메모리에 비하면 굉장히 작고 주 메모리는 굉장히 크기 때문에 작은 레지스터가 캐시 계층으로써 역할을 잘해주려면 캐시 매핑을 어떻게 하느냐가 중요하다.
캐시매핑의 분류
- 직접 매핑
주 메모리의 각 블록을 가능한 하나의 캐시 라인에만 매핑하는 것을 의미한다.
메모리 주소와 캐시의 순서를 일치시켜 지정된 캐시 라인으로만 매핑한다.
구현이 간단하고 빠르지만, 충돌로 인한 잦은 스와핑이 발생할 가능성이 높아 성능이 제한될 수 있다.
- 연관 매핑
메모리 워드의 내용과 주소를 저장하는 데 사용된다. 어떤 블록이든 캐시의 어떤 라인으로도 들어갈 수 있지만 모든 블록을 탐색해야 되기 때문에 속도가 느리다.
순서를 일치시키지 않고 필요한 메모리 값을 캐시의 어디든지 저장한다.
찾는 과정이 복잡하고 느리지만 충돌이 적으며 필요한 캐시 위주로 저장하기에 캐시 적중률이 높다.
- 집합 연관 매핑
직접 매핑과 연관 매핑을 합쳐 놓은 것이다. 캐시의 한 라인에 매핑되는 대신 여러 라인을 그룹화하여 집합을 생성한다. 그런 다음 메모리의 블록은 특정 집합의 라인 중 하나에 매핑될 수 있다.
집합 간의 순서는 일치시키는 반면 집합 내에서는 순서를 일치시키지 않고 편하게 저장한다.
웹 브라우저의 캐시
소프트웨어적인 대표적인 캐시로는 웹 브라우저의 작은 저장소 쿠키, 로컬 스토리지, 세션 스토리지가 있다.
사용자의 커스텀한 정보나 인증 모듈 관련 사항들을 웹 브라우저에 저장해서 추후 서버에 요청할 때 자신을 나타내는 아이덴티티나 중복 요청 방지를 위해 쓰인다.
쿠키(Cookie)
쿠키는 만료기한이 있는 키-값 저장소이다.
same site 옵션을 strict로 설정하지 않았을 경우 다른 도메인에서 요청했을 때 자동 전송된다.
4KB까지 데이터를 저장할 수 있고 만료기한을 정할 수 있다. 보통 서버에서 만료기한을 정하게 된다.
쿠키를 설정할 때는 document.cookie로 쿠키를 볼 수 없게 httponly 옵션을 거는 것이 중요하다.
로컬 스토리지(Local Storage)
만료기한이 없는 키-값 저장소이다.
10MB까지 저장할 수 있으며 웹 브라우저를 닫아도 유지되고 도메인 단위로 저장, 생성된다.
HTML5를 지원하지 않는 웹 브라우저에서는 사용할 수 없고, 클라이언트에서만 수정 가능하다.
세션 스토리지(Session Storage)
만료기한이 없는 키-값 저장소이다.
탭 단위로 세션 스토리지를 생성하며, 탭을 닫을 때 해당 데이터가 삭제된다.
5MB까지 저장이 가능하며 HTML5를 지원하지 않는 웹 브라우저에서는 사용할 수 없고, 클라이언트에서만 수정 가능하다.
주 메모리(Main Memory)
주 메모리는 현대 컴퓨터 작동의 핵심이다. 크기가 수십억에 이르는 대규모 단어 또는 바이트 배열을 가지는데 CPU 및 I/O 장치에서 공유하는 빠르게 사용 가능한 데이터 저장소이다.
주로 RAM이라고 부르고 휘발성 메모리이기 때문에 전원 중단이 발생하면 데이터를 잃게 된다.
- RAM(Random Access Memory)
램(RAM)은 하드 디스크로부터 일정량의 데이터를 복사해서 임시 저장하고 이를 필요 시마다 CPU에 빠르게 전달하는 역할이다.
이를 통해서 하드 디스크와 CPU의 처리 속도를 중간에 RAM을 통해서 보완할 수 있고 결과적으로 CPU를 더 효율적으로 사용할 수 있게 된다.
반대로 RAM은 휘발성 메모리로 작업 중인 파일이나 데이터를 한시적으로 저장한다. 즉, 컴퓨터를 재시작하거나 종료할 때 데이터들이 삭제된다.
RAM이 일반적인 HDD나 SSD 보다 속도가 빠른 이유는 물리적인 동작 방식이 아닌 전기적 신호로 동작하게 돼서 빠른 성능을 제공해 줄 수 있다.
- DRAM(Dynamic RAM)
저장된 데이터가 동적으로 휘발되는 RAM으로 데이터 소멸을 막기 위해서 주기적인 재활성화가 필요한 RAM이다.
상대적으로 소비전력이 낮고, 저렴하며, 직접도가 높아 대용량 설계에 유리하다.
- SRAM(Static RAM)
정적이라고 해서 비휘발성이라는 것은 아니다.
데이터가 자동으로 소멸되지는 않는다.
DRAM보다 빠른 속도를 가지고 있고 소비 전력이 높고 가격도 높다.
캐시메모리에 사용된다.
- ROM(Read Only Memotry)
ROM은 고정 기억 장치로 데이터를 반영구 보존이 가능한 비휘발성 메모리이다.
데이터 저장을 RAM과는 다르게 PC의 전류에 의존하지 않아 전원이 꺼져도 데이터가 칩에 영구 저장이 된다.
사용자가 ROM에 저장된 데이터를 마음대로 수정하거나 삭제할 수 없기 때문에 지워지면 안 되는 핵심 운영 체제나 Bios 등과 같은 소프트웨어 초기 부팅 관련 부분이나 프린터 작동 등에 관여하는 펌웨어 명령같이 변하지 않는 것들을 저장하게 된다.
메모리 관리
운영체제의 대표적인 할 일 중 하나로 컴퓨터 내의 한정된 메모리를 극한으로 활용하는 것이다.
가상 메모리(Virtual Memory)
메모리 관리 기법의 하나로 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화하여 이를 사용하는 사용자들에게 매우 큰 메모리로 보이게 만드는 것을 말한다.
이때 가상적으로 주어진 주소를 가상 주소라고 하며 실제 메모리상에 있는 주소를 실제 주소라고 한다.
가상 주소는 메모리관리장치(MMU)에 의해 실제 주소로 변환되며 사용자는 실제 주소를 의식할 필요 없이 프로그램을 구축할 수 있다.
가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 페이지 테이블로 관리된다.
속도 향상을 위해 메모리와 CPU 사이에 있는 주소 변환을 위한 캐시로 TLB를 사용한다.
스와핑(Swapping)
가상 메모리에는 존재하지만 실제 메모리인 RAM에는 현재 없는 데이터나 코드에 접근할 경우 페이지 폴트가 발생한다.
이를 방지하기 위해 당장 사용하지 않는 영역을 하드디스크로 옮겨 필요할 때 다시 RAM으로 불러와 올리고, 사용하지 않으면 다시 하드디스크로 내림을 반복하여 RAM을 효과적으로 관리하는 것을 스와핑이라 한다.
스와핑은 프로세스를 메인 메모리에서 임시로 보조 메모리(HDD/SSD)로 바꾸는 과정으로 보조 메모리에 비해 속도가 빠르다. 스와핑을 사용하여 더 많은 프로세스를 실행할 수 있으며 한 번에 메모리에 넣을 수 있다.
페이지 폴트
프로세스의 주소 공간에는 존재하지만 지금 이 컴퓨터의 RAM에는 없는 데이터에 접근했을 경우 발생한다.
이때 운영체제는 해당 데이터를 메모리로 가져와서 마치 페이지 폴트가 전혀 발생하지 않은 것처럼 프로그램이 작동하게 해 준다.
페이지 폴트와 그로 인한 스와핑 과정
1. CPU는 물리 메모리를 확인하여 해당 페이지가 없으면 트랩을 발생해서 운영체제에 알린다.
2. 운영체제는 CPU의 동작을 잠시 멈춘다.
3. 운영체제는 페이지 테이블을 확인하여 가상 메모리에 페이지가 존재하는지 확인하고, 없으면 프로세스를 중단하고 현재 물리 메모리에 비어 있는 프레임이 있는지 찾는다. 물리 메모리에도 없으면 스와핑이 발동된다.
4. 스와핑이 발동되면 비어 있는 프레임에 해당 페이지를 로드하고, 페이지 테이블을 최신화한다.
5. 중단되었던 CPU를 다시 시작한다.
스레싱(Thrashing)
스레싱은 메모리의 페이즈 폴트율이 높은 것을 말하며, 컴퓨터의 심각한 성능 저하를 초래한다.
스레싱은 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생하게 된다.
페이지 폴트가 일어나면 CPU 이용률이 낮아지고 운영체제는 가용성을 더 높이기 위해 더 많은 프로세스를 메모리에 올리게 된다. 이와 같은 악순환이 반복되며 스레싱이 발생하게 된다.
이를 해결하기 위한 방법으로 메모리를 늘리거나, HDD를 SSD로 바꾸는 방법이 있다. 그 외에 운영체제에서 이를 해결할 수 있는 방법은 작업 세트와 PFF가 있다.
작업 세트(Working Set)
프로세스의 과거 사용 이력인 지역성을 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드하는 것을 뜻한다.
미리 메모리에 로드하면 탐색에 드는 비용을 줄일 수 있고 스와핑 또한 줄일 수 있다.
PFF(Page Fault Frequency)
페이지 폴트 빈도를 조절하는 방법으로 상한선과 하한선을 만드는 방법이다.
상한선에 도달한다면 페이지를 늘리고 하한선에 도달하면 페이지를 줄인다.
메모리 할당
적절하게 메모리를 사용하기 위해서는 메모리 할당을 효율적으로 해야 된다.
메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당하는데, 연속 할당과 불연속 할당으로 나뉜다.
연속 할당
메모리에 연속적으로 공간을 할당하는 것을 말한다.
할당할 때 메모리를 미리 나누어 관리하는 고정 분할 방식과 매 시점 프로그램의 크기에 맞게 메모리를 분할하여 사용하는 가변 분할 방식이 있다.
- 고정 분할 방식
메모리를 미리 나누어 관리하는 방식이며, 메모리가 미리 나뉘어 있기 때문에 융통성이 없다. 또한 내부 단편화가 발생한다.
처음에는 모든 메모리를 사용자 프로세스에 사용할 수 있으며 사용 가능한 하나의 큰 메모리 블록을 홀이라고 한다.
내부 단편화: 요청된 크기보다 더 많은 메모리 블록이 프로세스에 할당될 때 발생한다. 이로 인해 일부 사용되지 않는 공간이 남아 내부 단편화가 발생하게 된다.
- 가변 분할 방식
매 시점 프로그램의 크기에 맞게 동적으로 메모리를 나눠 사용한다. 내부 단편화는 발생하지 않고 외부 단편화가 발생할 수 있다.
외부 단편화: 사용 가능한 메모리 블록이 있지만 블록이 연속되지 않기 때문에 프로세스에 할당할 수 없는 것을 말한다.
- 가변 분할 방식 종류
최초적합(First Fit): 첫 번째 사용 가능한 홀을 찾으면 바로 할당한다.
최적적합(Best Fit): 프로세스의 크기 이상인 공간 중 가장 작은 홀부터 할당한다.
최악적합(Worst Fit): 프로세스의 크기와 가장 많이 차이가 나는 홀에 할당한다.
불연속 할당
현대 운영체제가 쓰는 방법으로 불연속 할당과 페이징 기법이 있다.
불연속 할당은 메모리를 동일한 크기의 페이지(보통 4KB)로 나누고 프로그램마다 페이지 테이블을 두어 이를 통해 메모리에 프로그램을 할당하는 것이다.
페이징(Paging)
페이징 기법은 물리적 메모리를 연속적으로 할당할 필요가 없는 메모리 관리 체계로 보조 저장소에서 주 메모리로 페이지 형태의 프로세스를 검색하는 것을 페이징이라고 한다.
동일한 크기의 페이지 단위로 나누어 메모리의 서로 다른 위치에 프로세스를 할당한다.
홀의 크기가 균일하지 않은 문제가 없어지지만 주소 변환이 복잡해진다.
페이지: 가상 메모리를 사용하는 최소 크기 단위
프레임: 실제 메모리를 사용하는 최소 크기 단위
세그멘테이션(Segmentation)
페이지 단위가 아닌 의미 단위인 세그먼트로 나누는 방식이다.
프로세스는 코드, 데이터, 스택, 힙 등으로 이루어지는데, 코드와 데이터 등 이를 기반으로 나눌 수도 있으며 함수 단위로 나눌 수도 있음을 의미한다.
공유와 보안 측면에서 좋으며 홀 크기가 균일하지 않은 문제가 발생한다.
페이지드 세그멘테이션
공유나 보안을 의미 단위의 세그먼트로 나누고, 물리적 메모리는 페이지로 나누는 것을 말한다.
페이지 교체 알고리즘
메모리 관리를 위해 페이징을 사용하는 운영 체제에서는 새 페이지가 들어올 때 어떤 페이지를 교체해야 하는지 결정하기 위해 페이지 교체 알고리즘을 사용해야 된다.
해당 알고리즘을 통해서 스와핑이 많이 일어나지 않도록 설계되어야 한다.
오프라인 알고리즘
먼 미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘이며 가장 좋은 방법이다. 그러나 미래에 사용되는 프로세스를 알 수 없다.
즉, 사용할 수 없는 알고리즘이지만 다른 알고리즘과의 성능 비교에 대한 기준을 제공한다.
FIFO(First In First Out)
가장 간단한 페이지 교체 알고리즘으로 가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법을 의미한다.
LRU(Least Recently Used)
가장 최근에 사용된 페이지를 교체한다. 오래된 것을 파악하기 위해 각 페이지마다 계수기, 스택을 두어야 하는 문제가 있다.
NUR(Not Used Recently)
LRU에서 발전한 알고리즘이다.
clock 알고리즘이라고 하며 먼저 0과 1을 가진 비트를 둔다.
1은 최근에 참조되었고 0은 참조되지 않음을 의미한다.
시계 방향으로 돌면서 0을 찾고 0을 찾은 순간 해당 프로세스를 교체하고, 해당 부분을 1로 바꾸는 알고리즘이다.
LFU(Least Frequently Used)
가장 참조 횟수가 적은 페이지를 교체한다. 즉, 많이 사용되지 않은 것을 교체한다.
참고 자료
- CS전공지식노트(주홍철)
- https://www.geeksforgeeks.org/operating-systems/?ref=ghm
'CS > OS' 카테고리의 다른 글
운영체제 - 시스템 콜 (0) | 2024.06.26 |
---|---|
운영체제 - 인터럽트(Interrupt) (0) | 2024.06.25 |
운영체제 - CPU 스케줄링 알고리즘 (0) | 2023.10.26 |
운영체제 - 프로세스와 스레드 (0) | 2023.10.24 |
운영 체제 (0) | 2023.10.21 |