리셋 되지 말자

2021 RHCSA 후기 본문

Linux Study

2021 RHCSA 후기

kyeongjun-dev 2021. 8. 26. 18:57

컨테이너 부분 추가

컨테이너 section이 추가되어서 주의 필요. docker 쓰던 사람들은 비교적 쉽게 이해할 수 있을 듯.
하지만 문제는 docker가 아닌 podman으로 나옴...

 

시험 방식

시험 시작하면 activity 클릭하면 빨간색 모자 아이콘과 system 아이콘(?)이 있음.
빨간색 모자 아이콘은 시험 문제를 볼 수 있는 웹 사이트로 연결됨. 한국어, 영어 등 다양한 언어로 볼 수 있음. 영어로 보고 이해 안가면 한국어로 바꿔서 보고 하는 식으로 가능.

system 아이콘을 누르면 Node1, Node2 등 버튼이 생기는데 Node1을 누르면 메뉴가 다시 나타남. Node1 접속, Node1 종료, Node1 리셋 등. Node2도 마찬가지. 접속 버튼을 누르면 콘솔로 바로 접속 가능

Ctrl + Alt + Delete로 Node를 재시작할 수 있는데, 추천되지 않는다고 안내됨. Node 재부팅 버튼 또는 명령어로 재부팅 추천

 

시험 문제

Node1에서 푸는 문제, Node2에서 푸는 문제로 나뉘어짐.

Node1은 네트워크 설정, repo 설정이 안되어 있음.

Node2는 repo 설정이 안되어 있고 root 패스워드를 모름. root 패스워드를 문제에 주어진 패스워드로 변경하는 자체가 시험문제 1문제. 네트워크 설정은 되어있었음.

 

Node1

1. 네트워크설정 : nmtui 사용

2. Base repo설정
yum-config-manger 명령어가 안됨. 직접 입력해야함.
vi /etc/yum.repo.d/base.repo

[BaseOS]
name=BaseOS
baseurl=<문제에서 주어짐>
enabled=1
gpgcheck=0
[Appstream]
name=Appstream
baseurl=<문제에서 주어짐>
enabled=1
gpgcheck=0

 

3. manager 그룹추가 및 유저추가 /sbin/nologin 하나 있음. 특정 비밀번호로 변경하라고 함.

groupadd manager
useradd -G harry
useradd -s /sbin/nologin sarah

4. autofs 문제. 172.20.5.100 인가에서 nfs를 기본으로 쏴주는중.
remote3 유저의 홈 디렉토리를 쏴주고 있고, 비밀번호가 주어짐.
근데 ssh remote3@172.20.5.100 하면 비밀번호 틀렷다고 접속이 안됨... 마운트된 위치에 유저가 읽고 쓰기가 가능해야 한다는데, 먼소리인지 이해가 안가서 와일드카드 간접 매핑으로 하고 그냥 끝냄.

yum install autofs
yum start autofs
yum enable autofs (필수)

 

5. elite 그룹이 sudo 명령을 쓸 수 있게 설정하라는데, 비밀번호를 입력하지 않고 사용 가능하도록 해야함. elite 그룹은 이미 있음.

vi /etc/sudoers.d/elite
%elite ALL=NOPASSWD: ALL 
확실하지 않으니 인터넷에 확인...

 

6.공유 디렉토리 문제. /home/share 형식으로 폴더 생성 후 소유그룹을 manager 로 변경. 새로 생기는 파일도 소유그룹이 manager가 되도록 설정.

chown :manager /home/share
chmod g+s /home/share

 

7. /etc/fstab 파일을 /var/tmp 로 복사. 그리고 누구도 실행 못하게 설정. 특정 유저만 파일을 읽고 쓰고 할 수 있도록 설정.

setfacl 사용.

 

8. 일반 특정 유저가 로그인하면 컨테이너가 실행되도록 설정. daemon 형식으로 실행되어야 함. 이미지 검색은 podman search <이미지 이름>, podman login <레지스트리 주소>. 로그인해야할 레지스트리 주소는 문제에서 주어지고 계정이름과 비밀번호도 주어짐.

실행 : podman -d --name log_con
mkdir ~/.config/systemd/user
cd ~/.config/systemd/user
podman generate systemd --name log_con --files --new : new 옵션은 동작 안할 수도 있음)
loginctl enable-longer
systemctl start container-log_con.service
systemctl enable container-log_con.service

 

9. 8번에서 생성한 컨테이너와 호스트의 디렉토리를 연결. 연결할 때, -v host-경로:컨테이너-경로:Z (Z 옵션 필수)

 

10. User id가 664인 유저 생성

useradd -u 664 유저이름

 

11. crontab 특정 유저가 23분 14시에 매일 /bin/echo 하도록 설정

crontab -u username -e
23 14 * * * /bin/echo hello
햇갈리면 cat /etc/crontab으로 어디가 시간, 분, 월, 일, 요일인지 확인하고 작성

 

12. ntp 시간 동기화. 주소 주어짐. sources 인가로 확인해야하는데 기억이 안나서 그냥 systemctl status chronyd.service 해서 확인함

vi /etc/chronyd.conf
맨위에 url만 문제에서 주어지는 주소로 변경

 

13. 특정  유저의 파일 복사하기. /root/found 디렉토리에

find / -user username -type f exec -cp -rp {} /root/found/ \;

 

14. 특정 단어가 들어간 줄을 /root/words.txt에 저장

grep start /usr/tmp/words.txt > /root/words.txt

 

15. 82번 포트로  httpd가 동작중인데, 82포트가 selinux에 등록 안되어 있어서 fail 상태임. semanage port t a http 어쩌구 -p tcp 82 하고, firewalld에 82/tcp --permanent 추가. /var/www/html 에 있는 file1. file2, file3는 이미 fcontext가 http_sys 어쩌구로 되어있음. 문제에서도 fcontext 안건드려도 되니까 건들지 말라고 언급.

semanage port -a  -t httpd_port_t -p tcp 82
firewall-cmd --add-port=82/tcp --permanent
firewall-cmd --reload
(firewalld, httpd 둘 다 enable 상태인지 확인)
되는지 확인하려면 node1 url:82/file1 로 접속해서 파일 내용이 뜨면 된거임

 

Node2

1. root 패스워드 변경

2. repo 서정 (Node1에 했던거 복붙)

3. 이미 만들어져 있는 150MB 짜리 logical volume이 있는데, 크기를 250MB 까지 늘리기.

lvextend -L 250MB -r /vg-01/lv-01

 

4. 512MB swap 파티션 만들고, 재부팅하면 자동으로 on 상태가 되도록 설정. 512MB 짜리를 만들라고 했는데, 파티션을 512MB로 생성한 뒤, swap으로 생성하면 488MB가 되었던 걸로 기억. 맞는지 틀린지 모르겠지만 그냥 512MB 파티션 만들고 swap으로 만들었음.

parted로 512MB 파티션 만들고,
mkswap <파티션이름>
mkfs.xfs, mkfs.ext4 등으로 포맷 후 /etc/fstab에 설정
UUID=swap uuid swap swap defaults 0 0
우선순위 정하라고 나오면
defaults,pri=4

 

5. PE가 8MB인 volume 그룹을 만들고, extend가 100인 logical volume을 생성.

1 GB 파티션 만들고 시작.
vgcreate vg02 /dev/vdc2 -s 8M
lvcreate --name some-lv-name -l 100 vg02
특정 형식으로 포맷 (mkfs.ext4 or mkfs.xfs or mkfs.vfat)
fstab에 등록 : UUID=<UUID> /share xfs defaults 0 0

 

6. vdo 생성. 이를 위해 파티션이 나눠지지 않은 디스크를 남겨두어야 함.

yum install kmod-vdo
yum instlal vdo

vdo create --name vdo1 --device /dev/vdd --vdoLogicalSize 50G
mkfs.xfs /dev/mapper/vdo1

fstab에 기록 : /dev/mapper/vdo1 /vdo1 xfs defaults,x-systemd 어쩌구 0 0
defaults 다음이 햇갈리니 man mdo | grep service 로 확인하면 확인 가능

 

7. 튜닝상태를 recommnend 되는 것으로 변경

tuned-adm recommend : recommend 확인
tuned-adm profile <virtual-host> : 설정 (리부트 해서 리부트 되어도 tuned 상태가 유지되는지 확인)

'Linux Study' 카테고리의 다른 글

RSCSA-특정 유저 파일 복사  (0) 2021.08.22
파일 시스템 권한  (0) 2021.08.06
su, su - 차이  (0) 2021.08.06
서비스, 소켓  (0) 2020.03.20
프로세스, 데몬  (0) 2020.03.20
Comments