//구글콘솔 광고 추가가
파일 시스템(file system)
파일과 디렉터리를 관리하는 운영체제 내의 프로그램. 파일과 디렉터리를 다루어 주는 프로그램.

 

파일과 디렉터리

: 보조기억장치의 데이터 덩어리.

파일 디렉터리
- 보조기억 장치에 저장된 관련 정보의 집합.
- 의미 있고 관련 있는 정보를 모은 논리적 단위.
>>관련있는 정보를 한데 모아놓은 단위 == 파일.

- 윈도우에서는 폴더(folder)
- 옛날엔 : 1단계 디렉터리
- 요즘엔 : 여러계층으로 파일 및 폴더를 관리하는 트리 구조 디렉터리(가장 최상단에 있는 디렉터리를 루트 디렉터리라 부름(/ 슬래쉬로 표현) )
파일을 이루는 정보 디렉터리 경로
파일을 실행하기 위한 정보 + 부가 정보( = 속성, 메타 데이터) 디렉터리를 이용해 파일/ 디렉터리의 위치, 나아가 이름까지 특정 지을 수 있는 정보. 절대 경로와 상대 경로.
같은 디렉터리에는 동일한 이름의 파일이 존재할 수 없지만, 서로 다른 디렉터리에는 동일한 이름의 파일이 존재할 수 있음.
파일의 속성 정보 경로의 종류
속성 이름 의미 절대 경로 : 루트 디렉터리에서 자기 자신까지 이르는 고유한 경로(e.g.> /home/nomatter-me/a.cpp)
>> 루트 디렉터리 부터 시작하는 경로.
유형 운영체제가 인지하는 파일의 종류.
확장자로서 특정 지을 수 있음.(cpp,xml등)
상대 경로: 현재 디렉터리에서 자기 자신까지 이르는 경로
(e.g> 현재 디렉터리 경로가 /home일 경우 guest/d.jpg)
>> 현재 디렉터리부터 시작하는 경로.
크기 파일의 현재 크기와 허용 가능한 최대 크기. 디렉터리 연산을 위한 시스템 호출
보호 어떤 사용자가 해당 파일을 읽고, 쓰고, 실행할 수 있는 지를 나타냄. 1. 디렉터리 생성 2. 디렉터리 삭제 3. 디렉터리 열기
4. 디렉터리 닫기 5. 디렉터리 읽기 등
생성 날짜 파일이 생성된 날짜. 사실, 많은 운영체제에서는 디렉터리를 그저 "특별한 형태의 파일"로 간주한다!
즉, 디렉터리는 그저 "포함된 정보가 조금 특별한 파일".
--------------------------------------------------------------------------------
파일의 내부에는 파일과 관련된 정보들이 있다면, 디렉터리의 내부에는 해당 디렉터리에 담겨있는 대상과 관련된 정보들이 담겨있다. >> 이 정보는 보통 테이블(표) 형태로 구성.

마지막 접근 날짜 파일에 마지막으로 접근한 날짜.
마지막 수정 날짜 파일이 마지막으로 수정된 날짜.
생성자 파일을 생성한 사용자.
소유자 파일을 소유한 사용자.
위치 파일의 보조기억장치상의 현재 위치.
파일 연산을 위한 시스템 호출 디렉터리 엔트리
1. 파일 생성 2. 파일 삭제 3. 파일 열기
4. 파일 닫기 5. 파일 읽기 6. 파일 쓰기 등
각 엔트리(행)에 담기는 정보 - 디렉터리에 포함된 대상의 이름, 그 대상이 보조기억장치 내에 저장된 위치(를 유추할 수 있는 정보), 가끔 파일 속성을 명시하는 경우도 있음.

 

파일 시스템이 파일과 디렉터리를 보조기억장치에 할당하고 접근하는 방법과
대표적인 파일 시스템의 종류(FAT 파일시스템, 유닉스 파일시스템) 대해 공부해 보자.

 

파티셔닝과 포매팅

- 파티셔닝과 포매팅을 해야지 파일시스템을 통해 파일과 디렉터리에 접근 가능 

파티셔닝 포매팅
- 저장 장치의 논리적인 영역을 구획하는 작업.
  이 떄 구획된 각각의 구역을 파티션이라 함.
- 파일 시스템을 설정. (파일 시스템은 포매팅할 때 결정 됨.)
- 어떤 방식으로 파일을 관리할 지 결정, 새로운 데이터를 쓸 준비를 하는 작업
- 파일 시스템에는 여러 종류가 있고, 파티션마다 다른 파일 시스템을 설정할 수도 있다.
포매팅까지 완료하여 파일 시스템을 설정했다면 이제 파일과 디렉터리 생성이 가능해진다. 
< 파일 할당 방법 >
- 포매팅까지 끝난 하드 디스크에 파일을 저장하기.
- 운영체제는 파일/ 디렉터리를 블록 단위로 읽고 쓴다.
    >> 즉, 하나의 파일이 보조기억장치에 저장될 때에는 여러 블록에 걸쳐 저장된다. (하드 디스크의 가장 작은 저장 단위는 섹터이지만 보통 블록 단위로 읽고 쓴다.)

- 파일을 보조기억장치에 할당하는 두 가지 방법 : 연속 할당, 불연속 할당(오늘날 사용되는 방식)

연속 할당 불연속 할당
: 이름 그대로 보조기억장치 내 연속적인 블록에 파일 할당.
> 파일이 저장 장치 내에서 연속적인 공간을 차지하도록 블록을 할당하는 방법.
연결 할당
: 각 블록의 일부에 다음 블록의 주소를 저장하여 각 블록이 다음 블록을 가리키는 형태로 할당.(더이상 불러들일 주소가 없을 경우 다음 블록의 주소에  -1 삽입)
>>파일을 이루는 데이터 블록을 연결 리스트로 관리.
>>불연속 할당의 일종 : 파일이 여러 블록에 흩어져 저장되어도 무방. 

디렉터리 엔트리 : 파일 이름 & 첫번째 블록 주소 & 블록 단위의 길이
색인 할당
: 파일의 모든 블록 주소를 색인 블록이라는 하나의 블록에 모아 관리하는 방식.
>> 파일내 임의의 위치에 접근하기 용이

디렉터리 엔트리 : 파일 이름 & 색인 블록 주소 
연속된 파일에 접근하기 위해 파일의 첫 번째 블록 주소와 블록 단위의 길이만 알면 된다.

디렉터리 엔트리 : 파일 이름 & 첫 번째 블록 주소 & 블록 단위 길이 명시.
연속 할당의 부작용 연결 할당의 단점  
: 구현이 단순하지만 외부 단편화를 야기할 수 있다.
ex> 연속할당을 해둔 파일 중 중간 파일들을 삭제했을때 삭제한 파일의 블록수보다 더 큰 파일을 할당 할수 없음. 
파일 A의 블록 개수 4개. 파일 B의 블록 개수 5개.
파일 C의 블록 개수 2개. 파일 D의 블록 개수 6개.
파일 E의 블록 개수 3개.
파일 B와 D를 삭제하면 잔여 블록의 개수는 삭제한 파일들의 블록의 개수 11개(5개 + 6개)가 되는데 추가로 넣을 파일 F의 블록 개수가 10개라 하더라도 빈 블록 위치가 다르기때문에 파일을 할당시키지 못함.
1. 반드시 첫번째 블록부터 하나씩 읽어 들여야 한다. == 파일에 임의의 위치에  접근하는 속도가 느림.
2. 오류 발생 시 해당 블록 이후 블록은 접근이 어렵다.

 

FAT 파일 시스템
: 연결 할당 기반 파일 시스템, 연결 할당의 단점을 보완  오늘날 많이 사용하는 파일 시스템

- 각 블록에 포함된 다음 블록 주소를 한데 모아 테이블(FAT; File Allocation Table)로 관리

>> FAT가 메모리에 캐시 될 경우 느린 임의 접근 속도 개선 가능 

디렉터리 엔트리  파일 이름 & 확장자 & 속성 & 예약 영역 & 생성 시간 & 마지막 접근 시간 & 마지막 수정 시간 & 시작 블록 & 파일 크기
유닉스 파일 시스템
: 색인 할당 기반 파일 시스템. 색인 블록 == i-node (파일 속성 정보와 15개의 블록 주소 저장 가능)

- 사실상 i-node가 파일 시스템의 핵심

디렉터리 앤트리 i-node 번호 & 파일 이름
15개 이상의 블록 주소가 있다면? 유닉스 파일 시스템이 큰 파일들을 어떻게 관리하는지 확인해 보자.
1. 블록 주소 중 12개에는 직접 블록 주소 저장. (직접블록 : 파일 데이터가 저장된 블록)
2. 1번으로 충분하지 않다면 13번째 주소에 단일 간접 블록 주소 저장. (단일 간접 블록 : 파일 데이터를 저장한 블록 주소가 저장된 블록)
3. 2번으로 충분하지 않다면 14번째 주소에 이중 간접 블록 주소 저장. (이중 간접 블록 : 단일 간접 블록들의 주소를 저장하는 블록)
4. 3번으로 충분하지 않다면 15번째 주소에 삼중 간접 블록 주소 저장. (삼중 간접 블록 : 이중 간접 블록들의 주소를 저장하는 블록)
>> 이렇게 하면 못 담을 데이터가 없음

 

728x90
반응형
페이징의 이점은 외부단편화만 있는 것이 아니다!
쓰기 시 복사도 있다!
쓰기 시 복사( 프로세스 간에 페이지 공유할 수 있다의 대표적 예시)
 - 이론적인 fork()시스템 호출 :
>> 프로세스는 기본적으로 자원을 공유하지 않는다. >> 부모 프로세스가 적재된 별도의 공간이 자식 프로세스가 통째로 복제(부모 프로세스 복사본)되어 적재.
>> 단점: 프로세스 생성 시간 지연, 메모리 낭비(동일한 내용이 메모리에 중복해서 적재되기 때문)

이를 해결하는 방법쓰기시 복사 방법.
- 쓰기시 복사: 
>> 부모 프로세스와 동일한 자식 프로세스가 복제되어 생성되면 자식 프로세스는 부모 프로세스와 동일한 프레임을 가리킴(쓰기 작업없다면 이 상태 유지). 
>> 프로세스는 기본적으로 자원을 공유하지 않는다. 라고 말했듯이 부모 프로세스 / 자식 프로세스 둘 중 하나가 페이지에 쓰기 작업 수행 시 해당 페이지는 별도의 공간으로 복제됨.
>> 장점 : 프로세스 생성 시간 절약, 메모리 절약(중복해서 메모리를 저장하지 않기 때문.) 
프로세스 테이블의 크기는 생각보다 작지 않다.
프로세스를 이루는 모든 페이지 테이블 엔트리를 메모리에 두는 것은 큰 낭비.
프로세스를 이루는 모든 페이지 테이블 엔트리를 항상 메모리에 유지하지 않을 방법이 바로 계층적 페이징

 

계층적 페이징 (== 다단계 페이지 테이블)

- 페이지 테이블을 페이징하여 여러 단계의 페이지를 두는 방식. 페이지 테이블을 여러 페이지로 쪼개고 이 페이지를 가리키는 페이지 테이블(Outer페이지 테이블)을 두는 방식.

- 모든 페이지 테이블을 항상 메모리에 있을 필요가 없어짐.

>> CPU와 가장 가까이 위치한 페이지 테이블(Outer 페이지 테이블)은 항상 메모리에 유지, 필요한 페이지들만 메모리에 유지하면 됨.

- 계층적 페이징을 이용하는 환경에서의 논리 주소  

논리 주소의 구조
바깥 페이지 번호 안쪽 페이지 번호 변위
1. 바깥 페이지 번호를 통해 페이지 테이블의 페이지를 찾기.
2. 페이지 테이블의 페이지를 통해 프레임 번호를 찾고 변위를 더함으로서 물리 주소 얻기.

 

페이징을 통해 물리 메모리보다 큰 프로세스를 실행할 수 있지만,
그럼에도 물리 메모리의 크기는 한정되어 있다.
운영체제는 기존에 적재된 불필요한 페이지를 선별해 보조기억장치로 내보내고(=페이지 교체 알고리즘으로 해결) 프로세스들에게 적절한 수의 프레임을 할당해야 한다. 
요구 페이징

- 처음부터 모든 페이지를 적재하지 않고 필요한 페이지만을 메모리에 적재하는 기법. 요구되는 페이지만 적재하는 기법.

요구페이징이 실행되는 기본적인 양상
1. CPU가 특정 페이지에 접근하는 명령어를 실행한다.
2. 해당 페이지가 현재 메모리에 있을 경우(유효비트가 1일 경우) CPU는 페이지가 적재된 프레임에 접근한다.
3. 해당 페이지가 현재 메모리에 없을 경우(유효비트가 0일 경우) 페이지 폴트가 발생한다.
4. 페이지 폴트 처리 루틴은 해당 페이지를 메모리로 적재하고 유효 비트를 1로 설정한다.
5. 다시 1번을 수행한다.

요구 페이징 시스템이 안정적으로 작동하려면 해결해야 할 2가지 문제.
1. 페이지 교체.
2. 프레임 할당. 

>> 요구 페이징 기법으로 페이지들을 적재하다 보면 언젠간 메모리가 가득 차게 됨.
당장 실행에 필요한 페이지를 적재하려면 적재된 페이지를 보조기억장치로 내보내야 하는데, 이때 어떤 페이지를 내보낼지 결정하는 방법(알고리즘)이 바로 페이지 교체 알고리즘.
페이지 교체 알고리즘
>> 여러가지가 있지만 그중 제일 중요하게 생각해야 하는 게 바로 페이지 폴트가 적은 페이지 교체 알고리즘!!!

- 페이지 폴트가 발생하면 보조기억 장치에 접근해야 해서 성능이 저하되기 때문이다.

페이지 폴트 횟수는 어떻게 알수 있을까?
- 페이지 참조열(page reference string) : CPU가 참조하는 페이지들 중 연속된 페이지를 생략한 페이지열.
CPU가 논리 주소를 통해 특정 주소를 요구하는데 메인 메모리에 올라와 있는 주소들은 페이지의 단위로 가져오기 때문에 페이지 번호가 연속되어 나타나게 되면 페이지 결함이 일어나지 않음. 따라서 CPU의 주소 요구에 따라 페이지 결함이 일어나지 않는 부분은 생략하여 표시하는 기법을 페이지 참조열이라 한다. 
여러 페이지 교체 알고리즘들 중 세가지
FIFO 페이지 교체 알고리즘 - 가장 단순한 방식.
- 메모리에 가장 먼저 올라온 페이지부터 내쫓는 방식.
- "오래 머물렀다면 나가."
<단점>
- 프로그램 실행 초기에 잠깐 실행될 페이지가 있을 순 있겠지만, 프로그램 실행 내내 사용될 페이지가 있을 수 있는데 이런 페이지의 경우엔 먼저 적재되어 있다고 내쫓아선 안됨.
<보완책>
- 2차 기회(second-change) 페이지 교체 알고리즘(참조비트를 통해 내쫓을지 말지 한번의 기회를 더 줌)
 * 참조비트 1 : CPU가 한 번 참조한 적이 있는 페이지.>> 내보내지 않고, 적재된 시간을 현재 시간으로 설정,맨끝으로 보냄.(가장 최근에 적재된 페이지로 간주)
즉, 한번더 기회를 줌.(참조비트 0으로 초기화 후 적재 시간을 현재 시간으로 설정.)
 * 참조비트 0 : CPU가 참조한 적이 없는 페이지.  >> 내쫓음.
최적 페이지 교체 알고리즘 - CPU에 의해 참조되는 횟수를 고려.
- 메모리에 오래 남아야 할 페이지는 자주 사용될 페이지.
- 메모리에 없어도 될 페이지는 오랫동안 사용되지 않을 페이지.
- 앞으로의 사용 빈도가 가장 낮은 페이지를 교체하는 알고리즘. 
- 가장 낮은 페이지 폴트율을 보장하는 페이지 교체 알고리즘.
- BUT, 실제 구현이 어렵다.

-"앞으로 오랫동안 사용되지 않을 페이지? 어떻게 예측하지??"
- 다른 페이지 교체 알고리즘 성능을 평가하기 위한 척도로서 하한선으로 간주. 
LRU(Least- Recently-Used)
페이지 교체 알고리즘
- 최적 페이지 교체 알고리즘: 가장 오래 사용되지 페이지 교체 방식.
- LRU 페이지 교체 알고리즘: 가장 오래 사용되지 페이지 교체 방식.
   - "최근에 사용되지 않은 페이지는 앞으로도 사용되지 않지 않을까??"

 

 

페이지 폴트가 자주 발생하는 이유는
나쁜 페이지 교체 알고리즘을 사용했거나, 프로세스가 사용할 수 있는 프레임 자체가 적어서!! 

 

스래싱과 프레임 할당
< 스레싱 >
- 프로세스가 실행되는 시간보다 페이징에 더 많은 시간을 소요하여 성능(CPU이용률)이 저하되는 문제를 말함.
- 동시 실행되는 프로세스의 수를 늘린다고 CPU 이용률이 높아지는 것은 아님.  
- 근본적인 이유 :
>> 각 프로세스가 필요로 하는 최소한의 프레임 수가 보장되지 않았기 때문.
>> 각 프로세스가 필요로 하는 최소한의 프레임 수를 파악하고, 프로세스들에게 적절한 프레임을 할당해줘야 한다.

< 프로세스의 크기나, 물리 메모리의 크기를 통한 프레임 할당 방식 2가지 >
1. 균등 할당(equal allocation) :
가장 단순한 할당 방식. 모든 프로세스들에게 균등하게 프레임을 할당하는 방식.
>> 권장은 ㄴㄴ. 상대적으로 크기가 큰 프로그램(게임)과 작은 프로그램(메모장)에게 똑같은 프레임을 할당한다 생각해 봐.
2. 비례 할당(proportional allocation) :
프로세스의 크기를 고려. 프로세스 크기에 비례하는 프레임 할당.
>> 완벽한 방식은 ㄴㄴ. 크기가 큰 프로세스인데 막상 실행해 보니 많은 프레임을 필요로 하지않거나, 크기가 작은 프로세스인데 막상 실행해보니 많은 프레임이 필요한 경우가 있기 때문. 결국 프로세스가 필요로 하는 프레임 수는 실행해 봐야 안다.
** 균등할당과 비례할당은 프로세스의 실행과정은 고려하지 않고 단순히 프로세스의 크기나, 물리 메모리의 크기만을 고려한 방식이라 정적 할당 방식이라 부름.

< 프로세스를 실행하는 과정에서 프레임을 결정하는 방식 2가지 >
1. 작업 집합 모델 사용 방식 : 
프로세스가 실행하는 과정에서 배분할 프레임 결정. 스레싱이 발생하는 이유는 빈번한 페이지 교체 때문이기에 CPU가 특정 시간 동안 주로 참조한 페이지 개수만큼만 프레임을 할당하면 된다. 
"프로세스가 일정 기간 동안 참조한 페이지 집합"을 기억하여 빈번한 페이지 교체를 방지하는 방식이 작업집합 모델 기반의 프레임 할당 방식. 
** 작업 집합이란 "실행 중인 프로세스가 일정 시간 동안 참조한 페이지의 집합".
- 작업집합을 구하려면??
> 1. 프로세스가 참조한 페이지
> 2. 시간 간격이 필요함.
2. 페이지 폴트 빈도 기반의 프레임 할당 방식 :
프로세스가 실행하는 과정에서 배분할 프레임 결정.
- 두 개의 가정에서 생겨난 아이디어 
1. 페이지 폴트율이 너무 높으면 그 프로세스는 너무 적은 프레임을 갖고 있다.
2. 페이지 폴트율이 너무 낮으면 그 프로세스가 너무 많은 프레임을 갖고 있다.
페이지 폴트율에 상한선과 하한선을 정하고, 그 내부 범위 안에서만 프레임을 할당하는 방식.
** 작업 집합 모델 사용방식과 페이지 폴트 빈도 기반의 프레임 할당 방식은 프로세스가 실행하는 과정을 통해서( == 관찰함으로써) 프레임을 할당하는 방식이라 동적할당 방식이라 부름. 

 

728x90
반응형
연속 메모리 할당 : 프로세스에 연속적인 메모리 공간을 할당.

 

운영체제가 메모리를 관리하는 기본적인 기능 중 하나, 스와핑
: 현재 사용되지 않는 프로세스들을 보조기억장치의 일부 영역으로 쫓아내고 그렇게 생긴 빈 공간에 당장 사용할 새 프로세스 적재

스와핑

- 이점: 프로세스들이 요구하는 메모리 공간 크기 > 실제 메모리 크기
- 스왑영역 크기 확인하기 : free, top명령어로 확인 가능
연속 메모리 할당

- 프로세스는 메모리의 빈 공간에 할당되어야 한다. 빈 공간이 여러개 있다면?

어떤 빈 공간에 할당 될지에 따라 최초 적합, 최적 적합, 최악 적합의 세 가지 방식이 있다.

최초 적합(first-fit) 최적 적합(best-fit) 최악 적합(worst-fit)
- 운영체제가 메모리 내의 빈 공간을 순서대로 검색하다 적재할 수 있는 공간을 발견하면 그 공간에 프로세스를 배치하는 방식.
- (빈 공간)검색 최소화, 빠른 할당.
-운영체제가 빈 공간을 모두 검색해본 뒤, 적재 가능한 가장 작은 공간에 할당. - 운영체제가 빈 공간을 모두 검색해본뒤, 적재 가능한 가장 큰 공간에 할당.
**연속 메모리 할당의 두가지 문제점
사실, 프로세스를 연속적으로 메모리에 할당하는 방식은 메모리를 효율적으로 사용하는 방법이 아님.
>> 1. 외부 단편화(external fragmentation)이라는 잠재적 문제가 발생하기 때문.
>> 2. 물리 메모리보다 큰 프로세스 실행 불가.

- 외부 단편화란?
: 프로세스를 할당하기 어려울 만큼 작은 메모리 공간들로 인해 메모리가 낭비되는 현상.  남아있는 총 메모리 공간이 요청한 메모리 공간보다 크지만, 남아있는 공간이 연속적이지 않아 발생하는 현상.
>>해결 방법:
1. 메모리 압축 방식(conpaction) : 여기 저기 흩어져 있는 빈 공간들을 하나로 모으는 방식. 프로세스를 적당히 재배치시켜 흩어져 있는 작은 빈 공간들을 하나의 큰 빈 공간으로 만드는 방법.
2. 가상메모리 관기법 : 실행하고자 하는 프로그램을 일부만 메모리에 적재하여 실제 물리 메모리 크기보다 더 큰 프로세스를 실행할 수 있게 하는 기술. 페이징( 현재 대부분의 운영체제가 사용하는 방법.)과 세그멘테이션이 있음.
외부 단편화가 발생했던 근본적인 문제는
각기 다른 크기의 프로세스가 메모리에 연속적으로 할당되었기 때문. 
페이징이란?
: 프로세스를 일정 크기로 자르고, 이를 메모리에 불연속적으로 할당함으로써 외부 단편화를 해결.
페이징(paging)
: 프로세스의 논리 주소 공간을 페이지(page)라는 일정 단위로 자르고,
 메모리의 물리 주소 공간을 프레임(frame)이라는 페이지와 동일한 일정한 단위로 자른 뒤
 페이지를 프레임에 할당하는 가상 메모리 관리 기법. 

- 페이징에서의 스와핑

  - 프로세스 단위의 스왑 인, 스왑 아웃이 아닌 페이지 단위의 스왑 인(페이지 인), 스왑 아웃(페이지 아웃)
  - 메모리에 적재될 필요가 없는 페이지들은 보조기억장치로 스왑 아웃.
  - 실행에 필요한 페이지들은 메모리로 스왑 인.
>> 프로세스를 실행하기 위해 모든 페이지가 적재될 필요 없다.
>> 달리 말해 물리 메모리보다 큰 프로세스도 실행될 수 있다. 

- 페이지 테이블
: (실제 메모리 내의 주소인) 물리 주소에 불연속적으로 배치되더라도,
(CPU가 바라보는 주소인) 논리 주소에는 연속적으로 배치되도록 하는 방법.
- 페이지 번호와 프레임 번호를 짝지어 주는 일종의 이정표.
- 프로세스마다 페이지 테이블이 있다.
- 물리적으로는 분산되어 저장되어 있더라도 CPU 입장에서 바라본 논리 주소는 연속적으로 보임.
- CPU는 그저 논리 주소를 순차적으로 실행 하면 될 뿐임. 
- 외부 단편화를 해결하는 대신 내부 단편화라는 또 다른 부작용이 생김. 그래도 외부 단편화보다 메모리 낭비가 작음.

* 내부 단편화 : 하나의 페이지 크기보다 프로세스 크기가 작은 크기로 발생하는 메모리 낭비 문제. 주기억장치 내 사용자영역이 실행 프로그램보다 커서 프로그램의 사용 공간을 할당 후 사용되지 않고 남게 되는 현상.
(100MB의 메모리에 80MB의 크기의 프로세스를 올리게 되면 20MB의 내부 단편화가 발생.)

 

PTBR (프로세스 테이블 베이스 레지스터)
: 각 프로세스의 페이지 테이블이 적재된 주소를 가리킨다.
프로세스마다 페이지 테이블이 있고, 각 페이지 테이블은 CPU내의 프로세스 테이블 베이스 레지스터(PTBR)가 가리킨다.

PTBR

페이지 테이블이 전부다 메모리에 저장되어 있으면 부작용이 발생함. 
>> 메모리 접근 시간이 두배로 늘어남. (페이지 테이블 참조하기 위해 1번, 페이지 참조하기 위해 1번) 

이를 위해 사용하는 방식인 TLB
: CPU곁에 페이지 테이블의 캐시 메모리 이용. 페이지 테이블의 일부를 가져와 저장.
- CPU가 접근하려는 논리 주소가 TLB에 있다면? : TLB 히트 (메모리 접근 1번)
- CPU가 접근하려는 논리 주소가 TLB에 없다면? : TLB 미스 (메모리 접근 2번)
페이징에서의 주소 변환

특정 주소에 접근하고자 한다면 어떤 정보가 필요할까?

 - 이떤 페이지/ 프레임에 접근하고 싶은지, 접근하려는 주소가 그 페이지 혹은 프레임으로부터 얼마나 떨어져 있는지에 대해 알아야 됨. (ex> 프로세스 A의 페이지 2에서 10만큼 떨어진 주소에 접근할래!)

페이지 시스템에서의 < 페이지 번호(page number)와 변위(offset) >로 이루어진 논리 주소는  >> 페이지 테이블을 통해 >> < 프레임 번호, 변위 > 로 이루어진 물리주소로 변환된다.
이 두가지의 변위는 같다.
페이지 테이블 엔트리 (PTE)
: 페이지 테이블의 각각의 행 .

현재까지 설명한 PTE: 페이지 번호, 프레임 번호. 이외에 담기는 정보는? 운영체제에 따라 달라지지만 알아보자.

1. 유효 비트 : 현재 해당 페이지에 접근 가능한지 여부. 현재 페이지가 스왑영역으로 쫓겨났는지 아닌지, 현재 페이지가 메모리에 적재돼있는지, 아닌지를 나타냄. 

- 유효 비트가 0인 페이지에 접근하려고 하면? 페이지 폴트(page fault)라는 인터럽트 발생.

** 페이지 폴트(page fault)라는 인터럽트
1. CPU는 기존의 작업 내역을 백업
2. 페이지 폴트 처리 루틴 실행
3. 페이지 처리 루틴은 원하는 페이지를 메모리로 가져온 뒤 유효 비트를 1로 변경.
4. 페이지 폴트를 처리했다면 이제 CPU는 해당 페이지에 접근할 수 있게 됨.

2. 보호 비트 : 페이지 보호 기능을 위해 존재하는 비트. 보호 비트는 페이지에 접근할 권한을 제한하여 페이지를 보호하는 비트.

3. 참조 비트 : CPU가 이 페이지에 한 번이라도 접근한 적이 있는지 여부. 

4. 수정 비트( = dirty bit) : CPU가 이 페이지에 한번이라도 데이터를 쓴 적이 있는지 여부.(수정이 됐으면 1, 안됬으면 0)

수정비트의 존재 이유는? 수정된 페이지는 스왑 아웃될 때 보조기억장치에도 쓰기 작업을 거쳐야(반영해) 하기 때문에. 

728x90
반응형
운영체제는 현존하는 프로그램 중 규모가 가장 큰 프로그램 중 하나!
운영체제의 심장 "커널"
커널이란?
: 운영체제의 핵심 서비스를 담당하는 부분.
- 운영체제에는 속하는 데 커널에는 속하지 않는 기능 - 유저 인터페이스(UI; User Interface)
>> 사용자와 컴퓨터 간의 통로일 뿐 운영체제의 핵심 기능(커널)은 아님.

- 운영체제는 응용프로그램들이 자원에 접근하려 할 때 오직 자신을 통해서만 접근하도록 하여 자원을 보호.
응용프로그램이 자원에 접근하려면 운영체제에 도움을 요청(== 운영체제의 코드를 실행)해야 함.

 

이중모드와 시스템 호출
  •  이중모드 : CPU가 명령어를 실행하는 모드를 크게 사용자 모드커널 모드로 구분하는 방식.
사용자 모드 - 운영체제 서비스를 제공받을 수 없는 실행 모드
- 커널 영역의 코드를 실행할 수 없는 실행 모드
- 자원 접근 불가
커널 모드 - 운영체제의 서비스를 제공받을 수 있는 실행 모드
- 자원 접근을 비롯한 모든 명령어 실행 가능
  • 시스템 호출: 운영체제 서비스를 제공받기 위해 커널 모드로 전환하는 방법. 커널 모드로 전환하여 실행하기 위해 호출, 일종의 소프트웨어 인터럽트. >> 시스템 호출이 처리되는 방식은 하드웨어 인터럽트 처리 방식과 유사. 

커널모드와 사용자 모드를 왔다 갔다 하면서 실행

운영체제의 핵심 서비스
 프로세스 관리 프로세스 == 실행중인 프로그램. 수많은 프로세스들이 동시에 실행되고 있는데 이걸 관리해줌.
동시다발적으로 생성/ 실행/ 삭제되는 다양한 프로세스를 일목요연하게 관리해줌(프로세스와 스레드, 프로세스 동기화, 교착상태 해결 등등)
운영체제의 자원 접근 및 할당 - CPU (CPU스케줄링: 어떤 프로세스를 먼저, 얼마나 오래 실행할지)
- 메모리 (페이징, 스와핑 등등)
- 입출력장치 (인처럽트 서비스 루틴)
파일 시스템 관리 - 관련된 정보를 파일이라는 단위로 저장 장치에 보관.
- 파일들을 묶에 폴더(디렉토리) 단위로 저장장치에 보관.

 

728x90
반응형
모든 프로그램은 실행을 위해 자원을 필요로 한다.
운영체제란?
  • 실행할 프로그램에 필요한 자원을 할당하고 프로그램이 올바르게 실행되도록 돕는 특별한 프로그램.
  • 운영체제는 커널 영역에 적재되는 프로그램.
메모리는 커널 영역과 사용자 영역으로 나뉜다.
- 커널 영역 : 운영체제
- 사용자 영역 : 응용프로그램(사용자가 특정 목적을 위해 사용하는 일반적인 프로그램 >> 메모장, 웹브라우져 등)

 

운영체제 - 메모리 관리, CPU 관리(누가 먼저 실행될지, 얼마나 오래 쓸지), 입출력장치 관리

>> 응용프로그램과 하드웨어 사이에 위치해서 연결해주는 프로그램.

 

운영체제 덕분에 개발자는 하드 웨어를 조작하는 코드를 직접 작성할 필요가 없다.
운영체제를 알아야 하는 이유

- 사용자를 위한 프로그램이 아님. 프로그램을 위한 프로그램! 그렇기에 프로그램을 만드는 개발자는 운영체제를 알아야 한다!! 오류메세지에 대한 깊은 이해로 문제 해결 능력이 높아질 수 있음.

728x90
반응형
주기억장치의 종류에는 크게 RAM과 ROM 두가지가 있으며,
메모리라는 용어는 그중 RAM을 지칭하는 경우가 많음.
RAM의 특징

: 전원이 꺼지면 저장된 내용이 날아감.

- RAM은 휘발성 저장 장치, 보조기억장치는 비휘발성 저장 장치.

 

RAM의 종류
DRAM(Dynamic RAM) 저장된 데이터가 동적으로 사라지는 램. 데이터 소멸을 막기 위해 주기적으로 재활성화 해야 함. 
상대적으로 소비전력이 낮고 저렴하고, 집적도가 높아 대용량으로 설계하기 용이하기 때문에 실제로 메모리로 사용되는 램.
SRAM(Static RAM) 전원이 연결되어 있다면, 저장된 데이터가 정적인(사라지지 않는) RAM.
DRAM보다 일반적으로 입출력 속도가 빠름.
상대적으로 소비 전력이 높고 가격도 높고, 집적도가 낮아 대용량으로 설계할 필요는 없으나 빨라야 하는 장치에서 사용. 캐시메모리에서 사용되는 RAM.
SDRAM
(Synchronous DRAM)
DRAM의 발전된 램 >> 특별한(발전된 형태의) DRAM. 클럭 신호와 동기화된 DRAM.
DDR SDRAM
(Double Data Rate SDRAM)
특별한(발전된 형태의) SDRAM, 최근 가장 대중적으로 사용하는 RAM. 
대역폭을 넓혀 속도를 빠르게 만든 SDRAM. 대역폭은 데이터를 주고받을수 있는 길의 너비

 

  DRAM SRAM
재충전 필요함 필요없음
속도 느림 빠름
가격 저렴함 비쌈
집적도(오밀조밀 꽉꽉) 높음 낮음
소비 전력 적음 높음
사용 용도 주기억장치(RAM) 캐시메모리

 


메모리의 주소 공간

(물리 주소 & 논리 주소)

CPU와 실행중인 프로그램은 현재 메모리 몇 번지에 무엇이 저장되어 있는지 알고 있을까?
NO.
메모리에 저장된 값들은 시시각각 변하기 때문.
- 새롭게 실행되는 프로그램은 새롭게 메모리에 적재
- 실행이 끝난 프로그램은 메모리에서 삭제
- 같은 프로그램을 실행하더라도 실행할 때마다 적재되는 주소는 달라짐.

이러한 점을 극복하기 위해 주소 체계를 물리주소와 논리 주소로 나눈다. 
물리 주소 논리 주소
메모리 입장에서 바라본 주소
말 그대로 정보가 실제로 저장된 하드웨어상의 주소
CPU와 실행 중인 프로그램 입장에서 바라본 주소.
실행중인 프로그램 각각에게 부여된 0번지부터 시작하는 주소
물리 주소와 논리 주소의 변환
CPU와 메모리 사이에 있는 MMU(메모리 관리 장치)라는 하드웨어에 의해  논리주소는 물리 주소로 변환.
CPU가 이해하고 실행하는 주소는 전부 논리주소.
MMU는 논리주소와 베이스 레지스터(프로그램의 기 주소, 시작 주소)값을 더하여 논리 주소를 물리 주소로 변환함. 

*베이스 레지스터 : 프로그램의 가장 작은 물리 주소(프로그램의 첫 물리 주소)를 저장하는 셈.
*논리 주소 : 프로그램의 시작점으로 부터 떨어진 거리 인 셈.
CPU가 접근하려는 논리 주소는 한계 레지스터가 저장한 값보다 커서는 안됨.

 

메모리 보호 기법

1. 한계 레지스터 :

- 프로그램의 영역을 침범할 수 있는 명령어의 실행을 막음.

- 베이스 레지스터가 실행중인 프로그램의 가장 작은 물리 주소를 저장한다면, 한계 레지스터는 논리 주소의 최대 크기를 저장.

2. 주소범위 제한:

- 프로그램의 물리 주소 범위는 베이스 레지스터 값 이상에서부터 베이스 레지스터 값에 한계 레지스터 값을 더한 값 미만까지로 제한된다.

- 베이스 레지스터 값 <= 프로그램의 물리 주소 범위 < 베이스 레지스터 + 한계 레지스터 값 

>> CPU는 메모리에 접근하기 전, 접근하고자 하는 논리 주소가 한계 레지스터보다 작은지를 항상 검사한다.
만약 검사를 했는데 논리 주소가 한계레지스터가 크면 인터럽트(트랩)를 발생시킨다.
이런 메모리 보호 기법을 통해 실행중인 프로그램의 독립적인 실행 공간을 확보하고, 하나의 프로그램이 다른 프로그램을 침범하지 못하게 보호한다.

 


 

 

CPU가 메모리에 접근하는 시간은 CPU 연산 속도보다 느리다.  

 

저장 장치 계층 구조(memory hierarchy)
: CPU에 얼마나 가까운가를 기준으로 계층적으로 나타낼수 있음

1. CPU와 가까운 저장 장치는 빠르고, 멀리 있는 저장 장치는 느리다.

2. 속도가 빠른 저장 장치는 저장 용량이 작고, 가격이 비싸다. 

메모리 저장 장치 계층 구조

캐시 메모리

- CPU와 메모리 사이에 위치한, 레지스터보다 용량이 크고 메모리보다 빠른 SRAM기반의 저장장치

- CPU의 연산 속도와 메모리 접근 속도의 차이를 조금이나마 줄이기 위해 탄생.

- CPU가 매번 메모리에 왔다 갔다 하는 건 시간이 오래 걸리니, 메모리에서 CPU가 사용할 일부 데이터를 미리 캐시 메모리로 가지고 와서 쓰자.가 캐시메모리의 취지.

메모리에 접근  ==  물건을 사러가는 것이라 생각하면,
메모리 == 물건은 많지만 집(CPU)과는 멀리떨어져 있어 왕복이 오래 걸리는 대형 마트
캐시메모리 == 물건이 많지는 않아도 집(CPU)과 가까이 있는 편의점 이라 생각해보면 된다. 

 

캐시메모리는 하나가 아님. 계층적으로 구성할수 있음. CPU내부에 있을수도 외부에 있을 수도 있음.

계층적 캐시 메모리(L1 - L2 - L3 캐시) - 일반적으로 L1캐시와 L2캐시는 코어 내부에, L3캐시는 코어 외부에 있다.

L3캐시의 용량은 메모리보다 작지만, L1과 L2캐시보단 크다. 

계층적 캐시 메모리까지 반영한 저장 장치 계층 구조

참조 지역성의 원리
: CPU가 미래에 원하는 데이터를 예측하여 속도가 빠른 장치인 캐시 메모리에 담아 놓는데 이때의 예측률을 높이기 위하여 사용하는 원리 >> CPU가 사용할 법한 데이터를 예측하는 방법.

- 캐시 메모리는 메모리보다 용량이 작다. 당연하게도 메모리의 모든 내용을 저장할 수 없다.

따라서, CPU가 자주 사용할 법한 내용을 예측하여 저장함.

캐시 히트 예측이 들어맞을 경우(자주 사용할 것으로 예측한 데이터가 실제로 들어맞아 CPU가 캐시메모리에 저장된 값을 활용할 경우)
>> 이 경우엔 메모리에 접근하는 것보다 성능이 높아짐
캐시 미스 예측이 틀렸을 경우(자주 사용할 것으로 예측하여 메모리에 저장했지만 예측이 틀려 CPU가 메모리에 접근해야 하는 경우) 
>> 성능 하락!
캐시 적중률 캐시 히트 횟수 / (캐시히트횟수 + 캐시미스 횟수)
>> 적중률이 높으면 높을 수록 성능 높아짐.
참조 지역성의 원리란, CPU가 메모리에 접근할 때의 주된 경향을 바탕으로 만들어진 원리.

CPU의 주된 경향 2가지
- CPU는 최근에 접근 했던 메모리 공간에 다시 접근하려는 경향(시간 지역성)이 있다.
- CPU는 접근한 메모리 공간 근처를 접근하려는 경향(공간 지역성)이 있다. 
728x90
반응형

+ Recent posts