'Software'에 해당되는 글 45건

  1. 2020.04.22 Software | NAVER Analytics 사용기
  2. 2020.03.15 Software | ThingSpeak 등록하여 IoT 데이터 펼처보기
  3. 2020.02.02 Software | AWS Certified 자격증 취득기 - 3 12
  4. 2020.01.09 Software | GAIQ - Google Analytics for Beginners 2
  5. 2019.09.24 Software | AWS Certified 자격증 취득기 - 2 8
  6. 2019.09.04 Software | AWS Certified 자격증 취득기 - 1 12
  7. 2019.08.30 Software | Daum AdFit 등록해 보기
  8. 2019.07.09 Software | SyntaxHighlighter v4.0.1 로 업데이트 하기
  9. 2019.06.29 Software | MCSE + DP 도전기 - 6 4
  10. 2019.06.28 Software | MCSE + DP 도전기 - 5 28

Software | NAVER Analytics 사용기

|

블로그 방문자 및 웹사이트 전략 - SEO - 를 위해 Google Analytics 에 대해 알아 봤었습니다.


* Software | GAIQ - Google Analytics for Beginners
    - https://chocoball.tistory.com/entry/Software-GAIQ-Google-Analytics-for-Beginners

* Software | Google Analytics 를 이용한 블로그 분석
    - https://chocoball.tistory.com/entry/Software-Google-Analytics-blog

Google Analytics 를 통해 개선 사항이나, 접속 증가를 위해 몇 가지 튜닝도 해 봤었죠.


* Software | Daum AdFit 등록해 보기
    - https://chocoball.tistory.com/entry/Software-Daum-AdFit-apply


검색 사이트에서 노출을 높이기 위해서, 몇 가지 포털에 등록하기도 했습니다.


* Software | 블로그를 검색엔진에 노출시키기
    - https://chocoball.tistory.com/entry/Software-showing-blog-at-search-engine


블로그 활성화를 위해, 이번에는 NAVER Analytics 를 사용해 봤습니다.




1. NAVER Analytics



당연하게도 NAVER 계정이 있으면, 아래 사이트에 로그인 하면 됩니다.


* 네이버 애널리틱스

- https://analytics.naver.com/



NAVER 계정이 있으면 로그인 하면 되고, 없으면 만들면 됩니다.





2. 사이트 등록


이용 개시하면서, 약관에 동의 합니다.



그렇다고 합니다.



본격적으로 사용하려면, 모니터링 할 사이트가 필요합니다. 저는 제 블로그를 등록했습니다.



본인 소유의 확인을 위해, 그리고 사이트 분석을 위해, 등록시 발급 된 "등록 스크립트" 를 HEAD 부분에 넣어 줍니다.



등록 스크립트에는 사이트 ID 를 통해, 누구 소유의 사이트인지를 구분하고 분석해 줍니다.

결국 HTML 페이지의 HEAD 부분에 JavaScript + 사이트 ID 를 넣어주면 됩니다.






3. 요약 - 사이트 현황


정상적으로 사이트 ID 가 등록되고, 접속한 유저들의 브라우저가 심어놨던 JavaScript 를 통해 NAVER 서버에 정보를 보내기 시작하면, NAVER Analytics 에서 정보가 보이기 시작합니다.



사이트현황 에서는 정의한 기간 동안의 전반적인 접속 동향을 보여줍니다.



신규방문횟수, 재방문횟수, 평균 체류시간 등, 유용한 정보를 한눈에 볼 수 있다는 것이 장점입니다.



유입경로단말 정보, 그리고 유입검색어 정보도 보여줍니다.



TOP10 인기페이지 까지 보여줘서, 사이트현황 만으로 거의 모든 내용을 확인할 수 있어요.




4. 요약 - 대시보드


각 항목을 보면, "+ 대시보드추가" 가 있습니다. 의미하는 그대로, 원하는 항목에서 버튼 하나로 대시보드에 추가할 수 있어요.



저는 아래 항목들을 대시보드에 추가했습니다.



아래 보이는 것 처럼, 추가된 모든 그래프들이 대시보드에서 열람이 가능하다는 것을 알 수 있습니다.

참고로, 대시보드 상단의 "Check Points" 버튼을 클릭하면, 위의 메뉴가 뜨면서 넣고 빼기를 언제든 할 수 있습니다.



방문체류시간이 점점 늘어나는 것을 알 수 있구요.



TOP 방문지역 정보는 조금 이상하게 나오는 군요. NAVER 가 보유한 GeoIP 정보를 가지고 있는 IPDB 갱신이 필요해 보입니다.

다만, 행정구역 "구" 단위로 보여주는 것은 좋네요.



저의 블로그는 구글에서 가장 많이 검색되어 유입된다는 것을 알 수 있습니다. (글로벌 가자~)



당연 남초 사이트 이며, 35~39 연령대가 가장 많이 접속해 주시는 군요.



사람들 생활 패턴과 동일하게 "월요일" 이 가장 많이 방문하는 요일이고, 주말인 토/일에 낮은 방문률을 보여줍니다.





5. 방문분석


Visitor 분석 입니다. 대쉬보드에서 이미 확인할 수 있으나, 자세한 정보 열람이 가능합니다.



전일 대비 증감과 어떤 유형의 방문인지를 자세하게 알려줍니다.



페이지들의 열람 정보 입니다.



PV 가 UV 보다 살짝 높은 것을 보면, 방문해서 한페이지 정도만 보고 이탈하는 것 같습니다.

좀더 오랜동안 채류할 수 있도록 컨텐츠를 풍부하게 만들어야 겠네요. 인기 포스트들을 중심으로 연관된 글들에 집중해야 할 듯 합니다.

그치만, 취미로 하는 것이니 실제로는 신경쓰지 않을 껍니다.



시간대별로는 기상시 높아졌다가, 점심에 좀더 올라가고, 퇴근 전에 피크를 칩니다. 일하기 싫은 시간대에 인기있는 사이트... ㅠㅠ

퇴근시간대에도 한번 더 웨이브가 오네요. 이를 통하여 주요 방문자는 남자/30대 후반/직장인 이라는 것을 알 수 있습니다.



시간대별 방문 상세정보 입니다.



대시보드에서 봤던 정보 입니다.



요일별 방문분포의 자세한 내용 입니다.



방문체류시간은 처참하네요. 어떻게 1초를 못 넘기지? 접속 하자마자 바로 "아 아니구나..." 를 알 수 있다는 것인가?

어찌 되었든, 이 "방문체류시간" 을 늘리는 것이 광고 노출 최대의 결과가 됩니다.



방문경로깊이도 뼈아픈 정보 입니다. 대부분 접속한 글만 보고 이탈한다는 이야기 입니다.

하긴 저의 글들이 대중적이지는 않다는거 인정합니다.



미국이 가장 높게 나온건 이상합니다. 이참에 영어 사이트로 전환할까요?



영어 사용 언어권에 어필이 되면, 확실히 효과는 대단할 것 같습니다.





6. 유입분석


유입 현황 입니다. 검색을 통해서 노출된 링크를 타고 들어오는 사람이 대부분 입니다.



검색 사이트로는 구글을 통해서 제일 많이 들어왔네요.

한국어 블로그 이지만, 네이버 등 한국 포털을 통해서 들어오지 못하는 이유로는, 네이버가 자체 블로그 서비스를 가지고 있고, 블로그 노출에 대해 네이버 블로그들에 대해 우선순위를 높여놔서 그런게 아닌가 합니다.



이미 "네이버 웹마스터도구" 에도 등록되어 있음에도 불구하고, 이 현상은 NAVER 블로그를 더 노출하는 로직의 결과로 보입니다.


* Software | 블로그를 검색엔진에 노출시키기
    - https://chocoball.tistory.com/entry/Software-showing-blog-at-search-engine



각 항목을 클릭하면, 검색어도 표시해 줍니다. 이 기능은 좋아 보입니다. 2차원 정보를 같은 페이지에 보여주려는 노력의 결과인 듯.



유입검색어는 의지로 되는 것이 아닌 듯 합니다. 전혀 예상하지 못한 검색어가 인기 좋군요.



유입상세URL 은 당연 검색 사이트가 랭킹되어 있습니다.





7. 페이지분석


페이지들의 순위 입니다.


일전에 AWS 자격증 취득글이 가장 인기가 좋군요 :-)



시작 페이지와 종료 페이지는 동일합니다. 대부분 다른 글들은 보지 않고 떠났다는 이야기 이죠. ㅠㅠ



반송페이지의 의미는 들르지 마자, 그 페이지에서 바로 나갔다는 의미랍니다.





8. 실시간분석


말 그대로, 실시간 분석 입니다. 5초와 1분 단위로 접속자를 확인할 수 있습니다.


실시간 접속자 들의 인기 페이지 정보 입니다.





9. 사용자분석


뼈때리는 정보 입니다. 남초 사이트 인증!



성별 + 연령별 정보까지, 후벼 파 줍니다.



접속 단말의 정보. 이거야 User-Agent 분석의 결과.


각 OS 안에서 어떤 브라우저를 사용했는지도 보여 줍니다. 이런 2차원적인 표시 좋습니다.



웹브라우저 사용 비율 기준 + OS 정보를 표시해 줍니다.



아까는 OS > 웹브라우저 순서였고, 이 페이지는 그 반대인 웹브라우저 > OS 입니다.



CSS 디자이너에게는 필요한 화면해상도 정보도 알려줍니다.



해상도에 따른 OS 사용 비율도 보여줍니다.





FIN


Google Analytics 와는 다르게, 기본 한글 사용과 직관적인 구성으로 사이트 분석의 입문으로 추천합니다.

다만, 다차원적인 검색과 목표 설정하는 Campaign (Google 가지고 있슴) 등의 기능까지 활용하는 상위 레벨로는 맞지 않습니다.


분석용 JavaScript 들을 블로그에 집어 넣다보니, 페이지가 열리는 시간이 조금 무거워진 느낌은 나네요.

다만, 요즘 기기들과 인터넷 환경이 좋으므로 당분간 유지해 보려 합니다.


And

Software | ThingSpeak 등록하여 IoT 데이터 펼처보기

|

Arduino 를 통해 센서값을 확인 할 때, Arduino IDE 의 Serial Monitor 를 사용하게 되면 PC 를 계속 켜놔야 합니다.

PC 를 리부팅 하거나 다른 용도로 사용하게 되면, 측정을 중단해야 하므로 적절한 활용 방법이 아닙니다.




1. ThingSpeak


이런 불편을 없애려면 cloud 시스템에 internet 을 통해 올리면 됩니다.

그렇지만, 이걸 혼자서 하려면 다음과 같은 작업들이 필요합니다.


- 서버 설치

- OS 설치

- Apache 등 HTTP 서버 어플 설치

- DB 설치 및 설정

- API 설정

- 인터넷 설정

- 보안 설정

- 등등


유지 보수까지 생각하면 끝이 없는 작업입니다.

IoT 하나 하려다가 힘 다 빠지겠습니다. 그래서 나온 cloud 형 서비스가 몇 가지 있습니다.


* ThingSpeak for IoT Projects

https://thingspeak.com/





2. ThingSpeak 등록


사이트 가서 등록 고고.



개인 email 이면 됩니다.



비번도 등록하고.



대학 email account 를 가지고 있으면, 대학에서 보유한 Matlab 계정을 자동 연동하여 사용할 수 있습니다.

그렇게 되면, 대학교에서 구매한 Matlab 을 사용하게 되므로, 대학교 구매부서와 확인해 봐야 합니다. (무단 사용이 될 수 있슴)



아직 대학교 email account 도 가지고 있지만, 개인 account 를 사용했습니다.



계정 등록이 끝나면, 최종 verify 메일이 옵니다.



계정 인증 후, 비번 완료하면 끝납니다.





3. MathWorks


ThingSpeak 는 Matlab 을 개발한 MathWorks 에서 제공하는 서비스 입니다.

그래서인지, MathWorks 에서 제공하는 툴이나 Knowledge 를 사용할 수 있습니다.



제가 요츰 필요한 지식은 Arduino > ESP8266 > ThingSpeak 연동 방법도 나와 있습니다.

만, 최신 ESP 모듈을 기준으로 설명되어 있어서, 별 도움은 못 되었네요. 다른 글에서 이 부분은 집중적으로 다뤄 보도록 하겠습니다.



무료 사용자는, 하루 8,219 개를 사용할 수 있습니다.

하루 24시간 동안, 1초마다 값을 보내게 되면, "86,400" 개 이므로, 이의 1/10 보다 조금 더 적게 값을 보내야 합니다.

대략 15초에 1번 정도로 값을 보내면, 한 개의 sensor 값 읽어 들이는 것에 활용할 수 있겠네요.





4. API Key


HTTP GET/POST 를 이용하여 값을 보내는 RESTful API 를 사용할 때, API Key 가 할당 됩니다.



API Key 사용법은, 위의 스샷 오른쪽 밑에 보이듯이, "api_key=" 로 시작하는 GET URL 의 string 으로 넣어 사용할 수 있습니다.



실제로 값을 API 를 통해 cloud 에 올릴 경우는 아래와 같이 API 키를 넣어주면 됩니다.



전체 HTTP URL 로 만들면 다음과 같이 됩니다.


Write a Channel Feed
https://api.thingspeak.com/update?api_key=[Write_Key]&field1=[value]




5. Channels


계정과 API Key 가 있다 하더라도, 나만의 장소를 만들어야 합니다. 이게 Channels 이 됩니다.



이번에 CO2 취집 센서인 MH-Z14A 를 가지고 CO2 값을 취합하고 싶으니, 아래와 같은 채널을 만들었습니다.

Field1 은 CO2 값이 넣어지도록 하였습니다.



저의 Home Environment 채널이 만들어 졌습니다.

나중에 CO2 뿐만 아니라, 다른 기체 값들도 추가로 입력 받을 수도 있겠네요.





6. HTTP headers


Arduino / ESP-01 을 통해서 값을 입력받은게 아니지만, 브라우저를 사용하여 직접 REST API 를 통해서 값을 전송해 봤습니다.


리턴값으로 "1" 이 표시됩니다. 값들이 쌓여 가면, 이 숫자 카운트가 올라갑니다.

먹고사는 직업이 이쪽인지라, 직업병 발휘해 봅니다.


HTTP Request / Response 는 다음과 같습니다.



아래는 HTTP Request 만 뽑아 봤습니다.

브라우저가 아니고 command line 으로 ESP-01 을 컨트롤 할 때, 필요할 듯 하여 여기에 기록해 봅니다.


Host: api.thingspeak.com
User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:72.0) Gecko/20100101 Firefox/72.0
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8
Accept-Language: en-US,en;q=0.5
Accept-Encoding: gzip, deflate, br
Connection: keep-alive
Cookie: s_fid=18DA4B3665F95BB2-21E82C5CDD94C74E; _ga=GA1.2.1025526633.1578383783; s_cc=true
Upgrade-Insecure-Requests: 1


아래는 HTTP Response 입니다.


HTTP/2 200 OK
date: Mon, 20 Jan 2020 05:03:40 GMT
content-type: text/plain; charset=utf-8
content-length: 1
status: 200 OK
x-frame-options: SAMEORIGIN
access-control-allow-origin: *
access-control-allow-methods: GET, POST, PUT, OPTIONS, DELETE, PATCH
access-control-allow-headers: origin, content-type, X-Requested-With
access-control-max-age: 1800
etag: W/"4e07408562bedb8b60ce05c1decfe3ad"
cache-control: max-age=0, private, must-revalidate
x-request-id: e0fa0bd9-fc3a-4e9a-a09e-efb6326dcd6c
x-runtime: 0.022047
x-powered-by: Phusion Passenger 4.0.57
server: nginx/1.9.3 + Phusion Passenger 4.0.57
X-Firefox-Spdy: h2




7. Read a Channel Feed


API Key 를 통하여 Channel 값을 읽을 경우는 다음과 같이 API 를 날리면 됩니다. 아래는 JSON 방식의 값 추출 입니다.


Read a Channel Feed
https://api.thingspeak.com/channels/[Channel_ID]/feeds.json?api_key=[Read_Key]&results=2
{"channel":{"id":Channel_ID,"name":"Home Environment","description":"gathering values from IoT sensors","latitude":"0.0","longitude":"0.0","field1":"CO2","created_at":"2020-01-10T09:36:21Z","updated_at":"2020-01-10T09:37:06Z","last_entry_id":3},"feeds":[{"created_at":"2020-01-20T04:53:28Z","entry_id":2,"field1":"40"},{"created_at":"2020-01-20T05:03:40Z","entry_id":3,"field1":"39"}]}


인터넷 브라우저를 사용하면 아래처럼 정렬된 값을 확인할 수 있습니다.



값이 쌓여 가면서 그래프를 그려 줍니다.


참고로, 이번에 MH-Z14A 를 이용해서 측정했던 결과 입니다.

PC 없이도 값들을 바로바로 올릴 수 있고, 그래프 조정도 할 수 있어, 왜 이제 했나 싶을 정도 입니다.


* Hardware | CO2 센서인 MH-Z14A 를 활용해 보자
    - https://chocoball.tistory.com/entry/Hardware-CO2-sensor-MH-Z14A





8. 그 외


잘못된 값들이 전체 그래프의 통일성을 외곡시키므로 조금 다듬을 경우는 Timescale 값을 조정하면 됩니다.
10 으로 하면, 10개 값을 하나로 보여주어, 이빨 빠지는 구간 - 잘못된 값 - 들을 날려버릴 수 있습니다.


과거 값들이 불편할 경우는, Channels > Channel Settings > Clear Channel 을 이용하여 지울 수 있습니다.





9. FIN


이젠 PC 를 항상 켜놔야 하는 것으로 부터 해방입니다!




10. Update - 20200328


ThingSpeak 에서 그래프가 보이는 화면에서 data 를 export 하면, 거의 하루치 밖에 받을 수 없습니다.




측정된 값 전체를 받기 위해서는, My Channels > Data Import / Export > Export Download 에서 CVS 로 받을 수 있습니다.




EXCEL 로 그린 위의 그래프들은 이 메뉴에서 다운로드 받은 CVS 를 가지고 만들었습니다.




And

Software | AWS Certified 자격증 취득기 - 3

|

이 포스트는 AWS 인증 자격시험 세 번째인,

AWS Certified Solutions Architect - Professional 취득기가 되겠습니다.


* Exam Name - AWS Certified Solutions Architect - Professional

* Exam Code - SAP-C01

* Online Class - Exam Readiness: AWS Certified Solutions Architect - Professional


이 시험준비에 앞서 "Cloud Practitioner" 과,

중간 레벨인 "Solution Architect - Associate"도전기는 아래 포스트를 참고해 주세요.


* Software | AWS Certified 자격증 취득기 - 1

https://chocoball.tistory.com/entry/Software-AWS-Certified-1


* Software | AWS Certified 자격증 취득기 - 2

https://chocoball.tistory.com/entry/Software-AWS-Certified-2




1. Professional 시험 개요


이 Professional 시험은, 당연 AWS Solution Architect - Associate 의 상위 난위도 시험 입니다.


Associate 에서는 조금 단순한 내용을 물어봤다면, Professional 에서는, 자잘한 기능들을 가지고 전체 시스템을 어떤 식으로 구축하는지,

문제 발생시에는 어떤 대처가 필요한지, 원하는 바를 어떻게 이룰 것인 지 등, 시나리오를 가지고 AWS 활용 방법을 물어 봅니다.


그냥, AWS 에 대해 다 알고 있어야 한다는 이야기 겠네요. 자세한 사항은 아래 공식 문서에서 확인해 보세요.


AWS_Certified_Solutions_Architect_Professional-Exam_Guide_EN_1.2.pdf


찾아보니, 유료 강의도 많이 준비되어 있었습니다. (저는 무료 강의만...)



읽어 놔야 할 Whitepaper 들의 목록 입니다.



숙달 될 때 까지 익혀야 하니, 이 시험을 위해 구비했던 Kindle 에 싹다 넣어서 가지고 다니면서 공부 했습니다.



길고 긴 나와의 싸움의 시작 입니다.




2. 자료


AWS 에서 제공하고 있는 Whitepaper 들 입니다.


* Whitepaper: AWS Security Best Practices

AWS_Security_Best_Practices.pdf


* Whitepaper: AWS Well-Architected Framework

AWS_Well-Architected_Framework.pdf


* Whitepaper: Architecting for the Cloud: AWS Best Practices

AWS_Cloud_Best_Practices.pdf


* Whitepaper: Practicing Continuous Integration and Continuous Delivery on AWS: Accelerating Software Delivery with DevOps

practicing-continuous-integration-continuous-delivery-on-AWS.pdf


* Whitepaper: Microservices on AWS

microservices-on-aws.pdf


* Whitepaper: Amazon Web Services: Overview of Security Processes

AWS_Security_Whitepaper.pdf


추가적으로 읽은 웹페이지 자료 입니다.


* AWS Documentation

https://docs.aws.amazon.com/


* AWS Architecture Center

https://aws.amazon.com/architecture/


Professional 시험에 대한 셈플 문제 입니다.


AWS_certified_solutions_architect_professional_examsample.pdf


문제를 읽고 이해하고, 제시된 선택지들을 시나리오에 맞게 끼워 맞추는 대에도 상당한 시간이 필요하다는 것을 알 수 있습니다.

시험을 조금이나마 느껴볼 수 있는 좋은 자료 라고 생각해요. 바짝 긴장하게 만들어 주는 sample 입니다.


다음으로, AWS training 사이트에서 제공하는 무료 강의들을 듣고 정리해 봤습니다.


AWS_SAP-C01_20190908_chocoball_part1.pptx

AWS_SAP-C01_20190908_chocoball_part2.pptx

AWS_SAP-C01_20190908_chocoball_part3.pptx

AWS_SAP-C01_20190908_chocoball_part4.pptx


저는 VCE 파일을 열 수 있는 어플이 없어서 (구매 해야 함 - 한달 5만원 정도로 알고 있슴) 못 열어봤지만,

자료 찾으면서 얻게 된 덤프를 올려 놓습니다.


Amazon.Certkey.AWS Certified Solutions Architect - Professional.v2019-08-15.by.Maverick.302q.vce

gratisexam.com-Amazon.Certkiller.AWS-Architect-Professional.v2016-12-23.by.Smith.65q.vce


아래에서 설명 되겠지만, 모의 시험이 존재합니다. 시험 코드는 SAP-P01. 5만원짜리 20문항 시험인데, 최대한 실제 시험과 비슷합니다.

이 Practice 시험을 보고 캡춰 해 봤습니다. 표시된 답은 제가 직접 작성한 답안이라 정답이 안닌것도 있습니다.


AWS_SAP-P01_20200130_chocoball.pptx


이 외에 참고한 사이트들이 엄청 많지만, Professional 문제가 조금 나와있는 사이트를 여기서 공유해 봅니다.


* Jayendra's Blog

http://jayendrapatil.com/category/whitepaper/




4. 알아두면 좋은 시나리오들


회사 내에 먼저 취득한 분이 계셔서, 그 분이 추가로 알려준 LINK 들 입니다.

시나리오들은 많이 접할 수록 좋습니다.


보면서 알게된 것인데, 끝이 없네요...


aws_additional_document_20200131.txt


그래도 시험 선배가 알려준 것인데, 속속들이 익혀 봅니다.




5. 비 영어권자를 위한 30분 추가 요청


모든 용어가 영어이므로, 영어로 시험을 보는 것을 원칙으로 하고 있습니다.

다만, 앞전의 두 시험에서 겪었 듯, 지문이 많은 시험인지라 독해하고 생각하고 문제푸는 시간이 빠듯합니다.


그래서, 시험 "등록 전" 에 영어가 모국어가 아닌 사람들을 위해 30분 추가해 주는 옵션이 있어요.



이미 시험이 예정되어 있으면, 어떠한 accommodation 도 요청이 안됩니다.

예약한 시험을 취소하고, accommodation 신청 후, 다시 예약하는 방법 밖에는 없습니다.



시험 등록 사이트에서 "Request Accommodation" 를 선택합니다.



비 영어권자를 위한 30분 추가 신청은, 한번만 하면 향후 모든 시험에 적용시킬 수 있습니다.

조금 cheating 하는 기분이 들지만, 1분이 아쉬운 시험이니 감사히 쓰면 되겠습니다.



"ELS +30 MINUTES" 를 선택합니다.

Accommodation 옵션 중에는 500 파운드를 견디는 의자라던가, 높이 조정 가능한 책상이라던가 여러가지가 있습니다.

시험 응시자 개인의 불편함을 최대한 배려해 주고 싶은 생각에서 나온 옵션이 아닌가 합니다.


외국은 모르겠지만, 한국에서 이 옵션들이 유효한지가 궁금하군요.



이제 저는 AWS 시험볼 때, 30분 추가 혜택이 주어졌습니다.





6. Practice 시험 먼저 쳐보기


60분짜리 (+30분) Professional 연습시험이 존재합니다.



인터넷을 통해, 자기가 원하는 시간과 PC (장소) 에서 볼 수 있는 5만원짜리 시험 입니다.

저번 Associate 따고 받은, 연습 시험 무료 쿠폰을 사용해서 공짜로 시험을 쳤습니다.



등록을 하면, 바로 시험을 칠 수 있습니다. 어떤 시험이든 항상 긴장은 되는군요.



연습 시험도 시험인지라, 컨텐츠의 보호를 강력하게 이야기 하고 있습니다.



90분 짜리지만, 20문제를 50분 정도 보고 마무리.



뜨헉, 55% 정답률. 이러면 떨어진다는 거지요. 정답률이 70% 이상이어야 합니다.

이게 시험 보기 바로 전날인데, 바짝 긴장되더군요.


작년 9월부터 준비했던 만큼, 맥도 끊기고 처음 공부한 내용들이 흐릿해진 결과인 듯.



시험을 하루 남기고, 예전 Associate 문제들 부터 시작하여, 기존에 정리한 문서들을 다시금 모두 훑었습니다.

봐야 할 양이 너무너무 많아, 4시간만 자고 거의 모든 시간은 공부에 쏟아 부으며, 머릿속에 꾸격꾸격 우겨 넣었습니다.




7. 시험 등록


시험 등록은, 이번 설 전에 급하게 등록 했습니다. 시험 일자는 1월 31일! 2020년 1월 마지막 날로 정했습니다.



시험은 아침 9시에 하는 장소가 가능한 곳으로 찾다 보니, 문정역 근처의 시험장이 적절해 보이네요.

시험 보는 것이 자주 있는게 아닌만큼, 익숙한 곳도 좋지만, 새로운 장소에서 보는 것도 살짝 스릴 있습니다.



비과세 포함 37만 4천원!!!!!! 떨어지면 망하는 겁니다.

참고로 Pearson VUE 에서는 응시료가 살짝 더 싸다고 합니다.



9시 시험이니, 시험장에 미리 도착하여 다시한번 공부하는 시간 1시간을 생각하면, 5시 38분 첫처를 타야 하는군요.

아하하하하하... 아침 목욕 재계도 해야 하니, 새벽 3시에는 일어나야 합니다.



새벽 첫차로 달리는 버스와 지하철 이지만, 정말 많은 사람들이 일찍 일어나 부지런히 갈길 가는 모습을 볼 수 있습니다.

나 또한 그 물결에 동참하고 있으면 묘한 기분이 듭니다. 삶이란...




8. 시험장으로...


시간 안배가 중요합니다. 시험 시간이 긴 만큼, 칼로리 소모도 심합니다.

아침에 일어나 충분히 음식을 섭취해, 강도높은 집중력을 요하는 시험 대비 칼로리를 섭취해 놔야 합니다.

아침에 일어나 물 한컴, 바나나 한개, 샤워 30분, 콘프레이크 한접시, 그리고 바나나 하나 더 먹고 갔습니다.



1시간 50여분이 걸려, 문정역 테라타운에 도착했습니다. 어슴푸레 어둠이 겉이기 시작하네요.



테라타운 B동 13층에 내리니, SRTC 시험장 안내판이 눈에 띕니다.



뜨헉!!! 일찍 왔더니, 아직 open 전... 한시간 반동안 바짝 마무리 공부 해야 하는데...



화장실 변기에 앉아서 공부할까, 비상계단에서 할까 잠시 고민한 뒤, 비상계단에서 하기로 합니다.



조용하면서, 조명도 적절하군요.



시험보기 전에 항상 하게 되는 칼로리 부스터. 오늘도 맥콜을 마시면서 마무리 공부 합니다.

추가로 비타민제와 바나나 하나를 더 먹습니다.




9. 결과


시험 시간은 30분 연장받아 210분. 즉, 3시간 30분 입니다.

한 문제당 글자 수가 많고 영어다 보니, 독해 -> 이해 -> 선택지 문장과 대조 -> 최고로 적절한 답 선택 사이클을 반복합니다.

이렇게 하다 보면 3시간 반 후딱 지나갑니다.


그런데, 시간이 너무 촉박합니다.

왜냐하면 시나리오 설명과 선택지의 글이 엄청 많거든요.

30분 추가 혜택 받지 못했으면 어떨까 했습니다.


시간이 촉박한 것보다 더 힘들었던 것은, "봉크" 였습니다.

보통, 봉크는 사이클 선수들이 과격한 칼로리 소모로 인해, 벽에 부딪치는 것처럼 레이스 중 갑짜기 푹 쓰러져 버리는 것을 지칭합니다.


우리의 머리도, 높은 집중력으로 계속 사용하다 보면, 어느 순간부터 사고가 멈추게 되는 경험을 할 수 있습니다.

3시간 30분 중에, 2시간 30분만 지속해도 이 "봉크" 가 오는 것이 느껴 집니다.

추가적인 칼로리 보충이 없으면, 비축된 열량을 모두 소모하고 정지하는 것이죠.


나머지 한시간은 알고있는 지식을 박박 긁어 내는 것과 동시에, 회전하지 않는 머리를 부여잡고 억지로 돌리는 시간이었습니다.

"나중에 보기 flag" 기능이 존재하지만, 이 시간 이후에는 검수할 기력도 남아있지 않다는 것을 알기에,

거의 본능만을 가지고 문제를 풀어 나아 갔습니다.


23초를 남겨두고 "End Test" 버튼을 눌렀습니다.

몇 가지 시험 자체에 대한 소감을 묻는 질문들을 마치면 마지막 결과가 나옵니다.

클릭 하면서 자연스럽게 눈을 감게 되더군요. 이번에도 패스할 것 같은 느낌은 전혀 없었습니다. 아... 37만원.


눈을 뜨면서 슬로우 모션으로 화면이 보입니다. Congratulation!

으아아아아아아아아아아~!!!!!!!!!!!!!!!!!!!!!!!!



그날 저녁쯤 되니, 결과가 올라 왔네요.

750점 커트라인데 777점. 커트라인에서 한 두 세문제 더 맞았네요.


Design for Organizational ComplexityCost Control 이 부족하군요.

시간 날 때마다, 관련 문서로 보충해야 겠습니다.



이제, 저도 AWS Solution Architect - Professional 이 되었습니다.

이 시험을 보신 모든 분들에게 존경을 보냅니다.


이로써, 5개월간의 여정이 마무리 되었습니다.


And

Software | GAIQ - Google Analytics for Beginners

|

Google AdSense 를 시작한 뒤, Google 에 분석툴이 있다는 것을 알게 되었습니다.


Google Analytics


인터넷 매체를 통한 SEO - Search Engine Optimization, 및 마케팅에서는 Google Analytics 가 필수 지식 입니다.

이 블로그를 운영해 오면서, 어쩌다 보니 관련된 내용을 공부/적용하고 있었네요.


* Software | Daum AdFit 등록해 보기
    - https://chocoball.tistory.com/entry/Software-Daum-AdFit-apply


* Software | Google AdSense 가입 및 설정하기
    - https://chocoball.tistory.com/entry/Software-Google-AdSense-PC


* Software | Google Analytics 를 이용한 블로그 분석
    - https://chocoball.tistory.com/entry/Software-Google-Analytics-blog




1. 시작


공부도 좋지만, 관련 인증도 해준다는 사실을 알고 도전해 보기로 했습니다. (시작은 작년 4월...)

제대로 하려면, Advanced Google Analytics 까지 해봐야 하는 군요.


What do I need to do to earn an individual qualification in Analytics?

You simply need to pass the Analytics IQ exam.
Before taking the exam, however, we suggest that you review all the material covered in the Analytics Academy Google Analytics for Beginners and Advanced Google Analytics courses.


공부하고 관련 quiz 를 풀어서 인증을 받기 위해서는 아래 free online courses 에 등록하고 시작하면 됩니다.


* Learn analytics with free online courses

- https://analytics.google.com/analytics/academy/



이제 보니, Beginner / Advanced 외에,

Power Users, Google Analytics 360, Introduction to Data Studio, Google Tag Manager Fundamentals, 등 계속 뭔가를 만들고 있습니다.


공부에는 끝이 없군요. 즐겁게 시작해 봅니다.




2. Lesson 1


기초적인 개념과 배경을 배우는 세션 입니다.


Introducing Google Analytics
    1.1 Why digital analytics?
    1.2 How Google Analytics works
    1.3 Google Analytics setup
    1.4 How to set up views with filters



공부는 기본 동영상과 간단한 quiz 등으로 구성되어 있고, 큰 chapter 가 끝나면, Assessment 라고 해서 10여문제 시험을 봅니다.

이 시험들을 80% 이상 맞으면 pass 하게 되고, 4개의 chapter 에서 all pass 하면 인증을 해 주는 방식 입니다.


흠흠... 이런 개념들이 있군요.

각 세션이 끝나면, 추가로 읽을만한 내용의 문서들을 던져 줍니다.

알아두면 좋을 것 같아, 링크들을 남겨 놓습니다.


* Customer journey mapping: The path to loyalty
    - https://www.thinkwithgoogle.com/marketing-resources/experience-design/customer-journey-mapping/


* It's time to act: Adopt new data strategies for better marketing
    - https://www.thinkwithgoogle.com/marketing-resources/data-measurement/data-driven-marketing-strategy/


* Verify view filters

https://support.google.com/analytics/answer/6046990?hl=en


* About regular expressions (regex)

https://support.google.com/analytics/answer/1034324?hl=en

Regular-Expressions-Google-Analytics_2019.pdf

Regular-Expressions-Google-Analytics_2019.pdf

* Basic Google Analytics Filters For Every Site

- https://www.bounteous.com/insights/2015/12/10/basic-google-analytics-filters-every-site/?ns=l


각 세션을 끝내면 간단한 quiz 를 볼 수 있습니다.

문제 내용은 강의에 충실하며, 적절한 수준의 문제를 출제해 주네요.


Introduction 강의를 모두 듣고 시험 봤더니 13/16 (81%) 결과 입니다. 나쁘지 않네요.

어디서 틀렸으며, 틀린 내용은 강의 어디 부분을 참고하라고 친절하게 가르쳐 줍니다.


아래 결과는 다시 공부하고 100% 를 만들어 놓은 화면입니다.



그렇게 많이 어렵지는 않지만, 집중해서 하지 않으면 답을 못 찾을 수도 있습니다.




3. Lesson 2


Lesson 2 에서는 다음 내용을 공부합니다.


The Google Analytics Interface
    2.1 Navigating Google Analytics
    2.2 Understanding overview reports
    2.3 Understanding full reports
    2.4 How to share reports
    2.5 How to set up dashboards and shortcuts


그리고 시험을 보구요.



Google Analytics 책으로만 봤을 때에는 감이 안왔던 부분들이,

Demo account 를 가지고 직접 조작해 보면서 확인할 수 있으니 이해가 잘 되었습니다.


* Solutions Gallery dashboards

- https://analytics.google.com/analytics/gallery/?hl=en_US#posts/search/%3F_.type%3DDASHBOARD%26_.start%3D0/


두 과정을 끝냈더니, 개인 정보에 다음과 같이 떴습니다.



각 Lesson 을 끝내고, 따로 시험을 보는 것이 아니라, 각 Lesson 을 클리어 하면 되는 것인가?

궁금증을 뒤로 하고, 세 번째 세션으로 넘어갑니다.




4. Lesson 3


이번 장은 기본 리포트 방법에 대해 배워 봅니다.


Basic Reports
    3.1 Audience reports
    3.2 Acquisition reports
    3.3 Behavior reports


이번 Lesson 부터는, 각 소단원이 끝나면 quiz 를 보게 하네요.



Demographics 에서는 접속한 연령대에 대한 정보도 확인 가능합니다. (대체 어떻게 하는거야?)



Location 에서는 접속 국가별로도 알려 줍니다. 이거야 IP block 으로 가능하겠네요.



접속 기기의 정보도 알 수 있습니다. 이건 user-agent HEADER 를 분석한 것이겠네요.



더 읽어보기를 던저주고 Audience Reports 도 끝납니다.


* Overview of Audience reports

- https://support.google.com/analytics/answer/1012034?hl=en


다음 소단원의 quiz 입니다.



아래는 Demo account 를 이용해서 답을 찾는 과정 입니다.



Source, Medium, Champing name 등, 각 정의를 잘 알고 있어야 문제를 풀 수 있습니다.



광고에서 가장 수익을 많이 주는 Referrals 접근도 확인할 수 있습니다.



각 문제 풀 때, 확인한 화면들을 캡춰했습니다.



* Traffic source dimensions

https://support.google.com/analytics/answer/1033173?hl=en


* Analyze channel contribution with Multi-Channel Funnels

https://support.google.com/analytics/answer/1191204?hl=en


또 다른 quiz.



기능이 복합적으로 얽혀 있어서, 알고 싶은 값을 찾으려면 어느 메뉴에 있는지를 알고 있어야 합니다.



사이트의 어느 페이지부터 - landing page 유입 되었으며, 어느 페이지를 통해 나갔는지 - exit page 등을 확인할 수 있습니다.



사람들이 계속 사이트에 머물러 있게 하고, 많은 정보를 취하게 하려면, exit page 에서 어떤 장치를 설치하면 되겠죠?



* Exit Rate vs. Bounce Rate

- https://support.google.com/analytics/answer/2525491?hl=en


Lesson 3 의 시험 입니다.





5. Lesson 4


마지막 장 입니다.


Basic Campaign and Conversion Tracking
    4.1 How to measure Custom Campaigns
    4.2 Tracking campaigns with the URL Builder
    4.3 Use Goals to measure business objectives
    4.4 How to measure Google Ads campaigns
    4.5 Course review and next steps


Lesson 4 의 내용에 참고할 만한 읽을 꺼리들 입니다.


* Best Practices for collecting campaign data with custom URLs

- https://support.google.com/analytics/answer/1037445?hl=en


* 4 Steps To Better Campaign Data In Google Analytics

https://www.bounteous.com/insights/2011/09/08/4-steps-better-campaign-data-google-analytics/?ns=l


* Campaign URL Builder

- https://ga-dev-tools.appspot.com/campaign-url-builder/


* UTM Tracking Template

https://docs.google.com/spreadsheets/d/1tf3_SczMMTTf-ZJ9Bkb70xps_DPGLBTd4wkHPyadKSA/edit?hl=en_US&;usp=sharing&hl=en_US#gid=1

Template UTM tracking [MAKE COPY TO EDIT].xlsx


Lesson 4 의 첫 번째 quiz.



답을 찾아가기 위해 정확한 의미를 알고 있어야 하는군요.



테이블의 차원을 늘리면서, 다차원적인 검색이 가능합니다.



Google 의 핵심 비지니스가 AdSense 다 보니, 이걸 분석하거나, 사용자들이 활용할 수 있는 툴은 잘 되어 있습니다.

이 많은 데이터, 거의 실시간으로 처리됩니다.



Keyword 와 Filter 만 잘 이용하면, 얻고자 하는 정보를 간추릴 수 있겠네요.



광고 click 해서 유입되는 CPC 는, Adsense 의 가장 큰 수입원 입니다.



CPC 에 있어서는 거의 Google 이 하고 있다고 봐야 할까요? 이쪽 비지니스의 시장 점유율이 어떻게 되는지는 모르겠습니다.



이 quiz 의 Croatia 찾는게 재미 있었습니다.



Goal 설정을 통해, 비지니스가 목표하는 바에 얼마나 접근하고 있는지도 확인 가능합니다.



Goal 과 Conversion rate 등을 통해, 실 매출과의 연관성도 알 수 있겠네요.



Web site 디자인을 잘 하면, 바로 매출 변화를 가져올 수 있다는 것을 볼 수 있습니다.



모든 지표는 오름/내림 차순으로도 값의 확인이 가능합니다.



두 개의 quiz 를 생략했습니다. 실제 문제를 풀어보시면 거의 비슷하지만, 다른 값을 찾는 방식입니다.

* Setting up a Google Ads account


* Link/unlink Google Ads and Analytics

- https://support.google.com/analytics/answer/1033961?hl=en&%3Bvid=1-635760473728266369-729394007


* Monitor account health and performance

    - https://support.google.com/analytics/topic/1727147?hl=en&%3Bref_topic=3544907

* Demo account
    - https://support.google.com/analytics/answer/6367342?hl=en&%3Bref_topic=1727148

* Diagnostics and troubleshooting
    - https://support.google.com/analytics/topic/6277287?hl=en&%3Bref_topic=1727148

* Advanced Google Analytics
    - https://analytics.google.com/analytics/academy/course/7?hl=en_US


마지막 시험 입니다.






6. 끝


예상 대로, 마지막 장의 문제를 풀고 survey 가 끝나면, 자동적으로 인증서 발급이 됩니다.



그럼 저 위에 제가 했던 내용들은 시험 답안지가 되는군요...

답만 보고 인증 받는다면 아무 소용도 없을 것입니다. 참고용으로 봐주시면 되겠네요.


인증서는 PDF 나 URL link 로 발급이 되고, SNS 에 자랑질도 가능합니다.

Twitter 에 함 올려 봤네요.



Google 시스템과 친해지고, website 전략을 짜는데 있어서, Google Analytics 만한 툴은 없습니다.

IT, 특히 internet business 를 하시는 분이라면, 꼭 거쳐야 할 과정이, 이 Google Analytics 라고 생각합니다.


다음 과정인 Advanced 도 시간 날 때마다 공부해 보겠습니다.


And

Software | AWS Certified 자격증 취득기 - 2

|

이 포스트는 AWS 인증 자격시험 두 번째인,

AWS Certified Solutions Architect - Associate 취득기가 되겠습니다.


* Exam Name - AWS Certified Solutions Architect - Associate

* Exam Code - SAA-C01

* Online Class - Exam Readiness: AWS Certified Solutions Architect - Associate


이 시험준비에 앞서 AWS 기초격인 "Cloud Practitioner" 도전기는 아래 포스트를 참고해 주세요.


* Software | AWS Certified 자격증 취득기 - 1

https://chocoball.tistory.com/entry/Software-AWS-Certified-1


이 온라인 강의에 접근하는 방법은, 위의 1편에서 다루어졌으니, 모르시는 분은 1편을 참고해 주세요.





0. 시작하기


이 시험이 묻고자 하는 내용과 범위 입니다.



Cloud Practitioner 와 취급하는 서비스 자체는 같은 것이나,

추구하고자 하는 목적에 부합하는 기능이나 case 들을 이용하여 어떻게 서비스 구성하는 것이 적절한지를 물어보는 형식입니다.


아래에서는 온라인 강의와 예시로 풀어진 문제들 위주로 정리했습니다.

시험보기 전, 이 포스트를 보고 다시금 요약 내용을 확인하는 용도로 생각하면 될 것 같습니다.





1. Design Resilient Architectures


* EC2 Instance Store

- Ephemeral volumes

- Only certain EC2 instances

- Fixed capacity

- Disk type and capacity depends on EC2 instance type

- Application-level durability


* Elastic Block Store

- Different types

- Encryption

- Snapshots

- Provisioned capacity

- Independent lifecycle than EC2 instance

- Multiple volumes striped to create large volumes



* Amazon EFS

- File storage in the AWS Cloud

- Shared storage

- Petabyte-scale file system

- Elastic capacity

- Supports NFS v4.0 and 4.1 (NFSv4) protocol

- Compatible with Linux-based AMIs for Amazon EC2



* Amazon S3

- Consistency model

- Storage classes & Durability - Standard, Standard-IA

- Encryption (data at rest) - SSE-S3, SSE-KMS, SSE-C

- Encryption (data in transit) - HTTPS

- Versioning

- Access control

- Multi-part upload

- Internet-API accessible

- Virtually unlimited capacity

- Regional Availability

- Highly Durable - 99.999999999%


* Amazon Glacier

- Data backup and archive storage

- Vaults and archives

- Retrievals - expedited, standard, bulk

- Encryption

- Amazon S3 object lifecycle policy

- Regionally availability

- Highly durable - 99.999999999%




* Fault Tolerance

The more loosely your system is coupled, the more easily it scales and the more fault-tolerant it can be


* CloudFormation

- Declarative programming language for deploying AWS resources.

- Uses templates and stacks to provision resources.

- Create, update, and delete a set of resources as a single unit (stack).


* AWS Lambda

- Fully managed compute service that runs stateless code (Node.js, Java, C#, Go and Python) in response to an event or on a time-based interval.

- Allows you to run without managing infrastructure like Amazon EC2 instances and Auto Scaling groups.


* Test Axioms

- Expect "Single AZ" will never be a right answer

- Using AWS managed services should always be preferred

- Fault tolerant and high availability are not the same thing

- Expect that everything will fail at some point and design accordingly












2. Design Performance Architectures


* Amazon EBS Volume Types


* Amazon S3 Buckets

- To upload your data (photos, videos, documents)

1. Create a bucket in one of the AWS Regions.

2. Upload any number of objects to the bucket.

- Bucket (Virtural hosted-based URLs)

http://bucket.s3.amazonaws.com

http://bucket.s3-aws-region.amazonaws.com

- Object

https://s3-ap-northeast-1.amazonaws.com/[bucket name]/Key (file name)


* Amazon S3: Payment Model

- Pay only for what you use

-- GBs per month

-- Transfer out of region

-- PUT, COPY, POST, LIST, and GET requests

- Free of charge

-- Transfer in to Amazon S3

-- Transfer out from Amazon S3 to Amazon CloudFront or the same region


* Amazon S3: Storage Classes

- General purpose: Amazon S3 Standard

-- Higher availability requirements: Use cross-region replication.

- Infrequently accessed data: Amazon S3 Standard - Infrequent Access

-- Lower cost per GB stored

-- Higher cost per PUT, COPY, POST, or GET request

-- 30-day storage minimum


* Lifecycle Policies

- Amazon S3 lifecycle policies allow you to delete or move objects based on age.

-- until 30 Days : Amazon S3 Standard

-- until 60 Days : Amazon S3 Standard - Infrequent Access

-- until 365 Days : Amazon Glacier

-- after 365 Days : Delete


* Amazon Databases

- Amazon Relational Database Service

- Amazon DynamoDB

- Amazon Redshift


* When to Use Amazon RDS

- Use Amazon RDS

-- Complex transactions or complex queries

-- A medium-to-high query/write rate

-- No more than a single worker node/shard

-- High durability

- Do not use Amazon RDS

-- Massive read/write rates (e.g., 150 K write/second)

-- Sharding

-- Simple GET/PUT requests and queries

-- RDBMS customization


* RDS Read Replicas


* DynamoDB: Provisioned Throughput

- Allocates resources based on throughput capacity requirements (read/write)

-- Read capacity unit (for an item up to 4 KB in size)

One strongly consistent read per second

Two eventually consistent reads per second

-- Write capacity unit (for an item up to 1 KB in size)

One write per second


* Caching in CloudFront

1. Request is routed to most optimal edge location.

2. Non-cached content is retrieved from the origin.

3. Origin content is transferred to CloudFront edge location for caching.

4. Data is transferred to end user.


* Caching with ElastiCache



* Memcached vs. Redis

- Memcached

-- Multithreading

-- Low maintenance

-- Easy horizontal scalability with Auto Discovery

- Redis

-- Support for data structures

-- Persistence

-- Atomic operations

-- Pub/sub messaging

-- Read replicas/failover

-- Cluster mode/sharded clusters


* Amazon CloudFront

- Use case and benefits

- Content - static and dynamic

- Origins - S3, EC2, ELB, HTTP server

- Protect private content

- Improve security

-- AWS Shield Standard and Advanced

-- AWS WAF


* Vertical Scaling vs. Horizontal Scaling

- Vertical scaling (Scale up and down)

-- Change in the specifications of instances (more CPU, memory)

- Horizontal scaling ( Scale in and out)

-- Change in the number of instances (add and remove instances as needed)


* Auto Scaling

- Launches or terminates instances

- Automatically registers new instances with load balancers

- Can launch across Availability Zones


* Implement Elasticity



* Auto Scaling

- Launches or terminates instances

- Automatically registers new instances with load balancers

- Can launch across Availa


* Auto Scaling Components

- Auto Scaling launch configuration

-- Specifies EC2 instance size and AMI name

- Auto Scaling group

-- References the launch configuration

-- Specifies min, max, and desired size of the Auto Scaling group

-- May reference an ELB

-- Health Check Type

- Auto Scaling policy

-- Specifies how much to scale in or scale out

-- One or more may be attached to Auto Scaling group


* CloudWatch Metrics

- Know what CloudWatch can monitor

-- CPU / Network / Queue Size

- Understand CloudWatch Logs

- Understand the difference between default and custom metrics


* Test Axioms

- If data is unstructured, Amazon S3 is generally the storage solution.

- Use caching strategically to improve performance.

- Know when and why to use Auto Scaling.

- Choose the instance and database type that makes the most sense for your workload and performance need.

















3. Specify Secure Applications and Architectures


* Infrastructure

- Infrastructure

-- Shared responsibility model

- Protecting your AWS resources

-- Principle of least privilege

-- Identities


* Shared Responsibility Model



* Principle of Least Privilege

- Persons (or processes) can perform all activities they need to perform, and no more.


* AWS IAM

- Centrally manage users and user permissions in AWS.

- Using AWS IAM, you can:

-- Create users, groups, roles and policies.

-- Define permissions to control which AWS resources users can access

- IAM integrates with Microsoft Active Directory and AWS Directory Service using SAML identity federation.


* Identities

- IAM users: Users created within the account.

- Roles: Temporary identities used by EC2 instances, Lambdas, and external users.

- Federation: Users with Active Directory identities or other corporate credentials have role assigned in IAM.

- Web Identity Federation: Users with web identities from Amazon.com or other Open ID provider have role assigned using Security Token Service (STS).


* Compute/Network Architecture

- Virtual Private Cloud (VPC)

- Design your network architecture in the cloud

-- Security

-- Routing

-- Network isolation

-- Management

-- Bastion hosts


* Virtual Private Cloud

- Organization: Subnets

- Security: Security groups/access control lists

- Network isolation: Internet gateways/virtual private gateways/NAT gateways

- Traffic direction: Routes


* How to Use Subnets

- Recommendation: Use subnets to define internet accessibility.

- Public subnets

-- To support inbound/outbound access to the public internet, include a routing table entry to an internet gateway

- Private subnets

-- Do not have a routing table entry to an internet gateway

-- Not directly accessible from the public internet

-- To support restricted, outbound-only public internet access, typically use a "jump box" (NAT/proxy/bastion host)


* Security groups vs. Network ACL



* Security Groups



* VPC Connections

- Know the services to get traffic in or out of your VPC

-- Internet gateway: Connect to the internet

-- Virtual private gateway: Connect to the internet

-- AWS Direct Connect: Dedicated pipe

-- VPC peering: Connect to other VPCs

-- NAT gateways: Allow internet traffic from private subnets


* Outbound Traffic From Pirvate Instances



* Data Tier

- Data in transit

-- In and out of AWS

-- Within AWS

- Data at rest

-- Amazon S3

-- Amazon EBS


* Data in Transit

- Transferring data in and out of your AWS infrastructure

-- SSL over web

-- VPN for IPsec

-- IPsec over AWS Direct Connect

-- Import/Export/Snowball

- Data sent to the AWS API

-- AWS API calls use HTTPS/SSL by default


* Data at Rest

- Data stored in Amazon S3 is private by default, requires AWS credentials for access

-- Access over HTTP or HTTPS

-- Audit of access to all objects

-- Supports ACL and policies

--- Buckets

--- Prefixes (directory/folder)

--- Objects

- Server-side encryption options

-- Amazon S3-Managed Keys (SSE-S3)

-- KMS-Managed Keys (SSE-KMS)

-- Customer-Provided Keys (SSE-C)

- Client-side encryption options

-- KMS managed master encryption keys (CSE-KMS)

-- Customer managed master encryption keys (CSE-C)


* Managing Your Keys

- Key Management Service

-- Customer software-based key management

-- Integrated with many AWS services

-- Use directly from application

- AWS CloudHSM

-- Hardware-based key management

-- Use directly from application

-- FIPS 140-2 compliance


* Integrating AWS KMS

- Amazon EBS/S3/RDS/Redshift/Elastic Transcoder/WorkMail/EMR


* Test Axioms

- Lock down the root user

- Security groups only allow. Network ACLs allow explicit deny

- Prefer IAM Roles to access keys









4. Design Cost-optimized Architectures


* Amazon EC2 Pricing

- Clock hours of server time

- Machine configuration

- Machine purchase type

- Number of instatnces

- Load balancing

- Detailed monitoring

- Auto Scaling

- Elastic IP adresses

- Operating systems and software packages


* Amazon EC2: Ways to Save Money

- Reserved Instances

-- EC2 Reserved Instances (RI) provide a significant discount (up to 75%) compared to on-demand pricing.

-- RI Types: Standard IRs / Convertible RIs / Scheduled RIs

- Spot Instances

-- Spot Instances are spare compute capacity in the AWS Cloud available to you at steep discounts compared to on-demand prices (30 t0 45%)


* Amazon S3 Pricing

- Storage class

- Storage

- Requests

- Data transfer


* Amazon S3 Storage Classes



* Amazon EBS Pricing

- Considerations for estimating the cost of using Amazon EBS

-- Volumes

-- Input/output operations per second (IOPS)

-- Snapshots

-- Data transfer


* Serverless Architecture

- Recognize the opportunity to reduce compute spend through serverless architectures

-- AWS Lambda / S3 / DynamoDB / API Gateway


* Storage: Amazon CloudFront

- Use cases

-- Content - Static and dynamic

-- Origins - Amazon S3, EC2, Elastic Load Balancing, HTTP servers

- Cost Benefits

-- No cost for data transfer between S3 and CloudFront

-- Can be used to reduce the compute workload for EC2 instances


* Caching with CloudFront

Considerations for estimating the cost of using Amazon CloudFront:

- Traffic distribution
- Requests
- Data transfer out
Caching with CloudFront can have positive impacts on both performance and cost-optimization!

* Test Axioms

- If you know it's going to be on, reserve it.

- Any unused CPU time is a waste of money.

- Use the most cost-effective data storage service and class.

- Determine the most cost-effective EC2 pricing model and instance type for each workload.







5. Define Operationally-excellent Architectures


* Operational Excellence

The ability to run and monitor systems to deliver business value and continually improve supporting processes and procedures.

- Prepare / Operate / Evolve


* Operational Excellence: Design Principles

- Perform operations with code

- Annotate documentation

- Make frequent, small, reversible changes

- Refine operations procedures frequently

- Anticipate failure

- Learn from all operational failures


* AWS Services Supporting Operational Excellence

- AWS Config

- AWS CloudFormation

- AWS Trusted Advisor

- AWS Inspector

- VPC Flow Logs

- AWS Cloud Trail


* CloudWatch



* Test Axioms

- IAM roles and easier and safer than keys and passwords

- Monitor metrics across the system

- Automate responses to metrics where appropriate

- Provide alerts for anomalous conditions








6. 자료


시험볼 때 참고한 덤프와 온라인 강의 정리 공유합니다.


* PDF dump

AWS-Solutions-Associate_V17.35.pdf

AWS-Solutions-Associate-KR_V17.35.pdf

AWS-Solutions-Architect-Associate_V16.75.pdf

AWS_Solutions_Architect_Associate_2016_pdf.zip


* ETE dump of 2018 / 2019

AWS_Solutions_Architect_Associate_2019_ete.zip.001

AWS_Solutions_Architect_Associate_2019_ete.zip.002


* On-line summary

AWS_SAA-C01_20190903_chocoball.pdf


* On-line practice (SAA-P01)

AWS_SAA-P01_20190922_chocoball.pdf


* Website dump

https://www.freecram.com/exam/AWS-Solutions-Associate-aws-certified-solutions-architect-associate-e7428.html


- https://www.freecram.com/question/Amazon.AWS-Solutions-Associate.v2019-07-29.q257/you-are-designing-a-data-leak-prevention-solution-for-your-vpc-environment-you-want-your-vpc-instances


- https://www.freecram.com/question/Amazon.AWS-Solutions-Associate.v2018-01-08.q430/which-technique-can-be-used-to-integrate-aws-iam-identity-and-access-management-with-an-on-premise


https://www.freecram.com/question/BluePrism.Architect-Associate.v2018-11-27.q75/a-company-requires-that-the-source-destination-and-protocol-of-all-ip-packets-be-recorded-when-traversin





7. 등록


언제 시험볼까 고민만 하다가는 시간만 갈 것 같아, 첫시험 본 다음날 바로 다음 시험을 등록했습니다.



미리 가서 공부할 수 있는 환경이 조성된 KG ITBANK 로 결정. 시간은 아침 제일 빠른게 좋죠.



Cloud Practitioner 합격 후, 받은 50% discount 쿠폰을 사용해 봅니다.



오오오! 17만원이던게 반으로 깎이는 마술이!



이제 되돌아 가지 못합니다. 앞으로 나아가는 수 밖에.



주사위는 던져졌습니다.

보유하고 있는 덤프 및 공부 자료를 본 결과, 하루에 100문제 정도 풀 수 있는 시간을 확보해야 하네요.

만만치 않습니다만, 직접 AWS Management Console 에서 테스트 하면서 공부하니, 이제 좀 시스템이 실감이 나고 재미 있습니다.





8. SAA-P01


Architect - Associate 의 시험 코드는 SAA-C01 입니다.

네 맞아요, SAA-P01 은 Practice 시험 입니다. 인가된 시험장이 아닌 인터넷이 되는 어느곳에서든 시험삼아 보는 시험이지요.

본 시험은 비싸니, 감 잡으라고 만든 30분짜리 시험 입니다. 특별히 예약하지 않고, 등록 후 바로 시험볼 수 있습니다.


가격은 세금 포함 2만 5천원 정도 하는데,

Practitioner 를 따면, 이 Practice 시험을 공짜로 한번 볼 수 있는 바우처를 줍니다.



시험을 하나 pass 할 때 마다, Practice Voucher 와 50% discount 는 매번 나오니 아껴쓰지 않습니다.



Practice 시험을 선택하고 "Pay For Exam" 하면, 보통 시험 지불하는 화면이 아래처럼 나옵니다.



Payment 란에, 받은 Voucher 번호를 넣고 적용하면, 공짜가 되는 마술을 볼 수 있습니다.



저는 시험보기 이틀 전에 봤습니다.

지금까지 한 공부가 맞는 방법인지 확인하고, 틀렸으면 새로운 공부 전략을 짜기 위해서죠.

떨리는 마음으로 Start 를 눌러서 30분간 지옥을 맛봅니다. 아무리 연습이라도 모니터에 본 시험과 같이 나오니 긴장 엄청 됩니다.



제길슨... 52%. 이대로는 떨어진다는 소리 입니다.


이 Practice 시험 이후, 보고 있던 예전 dump 는 바로 버리고, 남은 하루 반을 오로지 최신 덤프 + 인터넷 최신 시험 예상 문제 사이트를 중심으로 빡쎄게 공부하게 됩니다.


예전 dump 를 바로 버린 이유는, 이 연습 시험을 통해, 예전 덤프에서의 간단한 시나리오 설명과 문제는 지금 출제 성향과 너무 다르다는걸 알았기 때문입니다. 정말 도움이 많이 되었습니다.





9. 시험 당일


새벽 5시에 일어나서 한시간 공부한 다음, 언제나처럼 목욕 재개 후, 길을 떠납니다.



버스타고 가면서 낮게 깔린 안개와 해뜨는 장면이 멋있어서 찍어 봤습니다.



이번이 세번째 방문인 KG ITBANK.

8시에 도착했으니, 한시간 가량 더 공부하고 시험 쳤습니다.


130분 동안, 65문제.

34초 남겨두고 End Test 버튼을 누를 만큼 저에게는 어려웠습니다.

시나리오에 맞는 답을 고르는려면 문제 본문을 읽어야 하는데, 이게 생각 외로 많이 걸립니다.


추가로, 어떤 놈이 주차장 출구 센서쪽에 주차를 한 바람에 새벽 내내 울려 퍼지는 알람소리로 잠을 설쳤더니만, 헤롱헤롱 했습니다.

머리와 몸을 쥐어 짜며 130분 꽉꽉 채웠습니다.



휴우~... 하얕게 불태웠어. 시험 끝나고 밖에 나오니 가을 햇빛에 눈이 부십니다.



그래도 여기까지 왔으니, 종로 보석상가 전경도 찍어 봅니다.



바로 옆에 공원으로 잘 조성이 되어 있더군요. 왠지 바로 회사 가기는 아쉬워서 잠시 들러보기로 합니다.



조선시대 왕의 행사 때, 행진에 사용된 종묘전교도 건너가 보구요.



공원 한쪽에 있는 "월남 이상재 선생" 동상도 봤습니다.

독립운동가시고, 1927년 독립운동중에 서거하셨다고 합니다.

전혀 모르던 우리의 자랑스런 독립 운동가셨군요. 꼭 기억하겠습니다.



동상 뒤쪽에 쓰인 글귀가 좋아서 찍어 봤습니다.



오늘 우리를 있게 해준, 너무나도 감사한 우리 조상님들 입니다.

감사합니다. 잊지 않겠습니다. 열씸히 살겠습니다.



공원을 지나 버스타러 가던 길에 있는 큰 학원 건물 입니다. 희한하게 이런 모양의 건물이 몇 개 더 있습니다.

경사면을 없애고, 그냥 똑바로 위에까지 올렸으면 공간이 더 많이 나왔을 터인데... 왜 이렇게 디자인 했을까요?



노인들 분만 서명하고 있었습니다. 이런 천막이 두 개 더 있더군요. 오로지 노인 분들만...



시간이 점심시간이 거의 다 되어 버려서, 버전에 갔던 버거킹에는 자리가 없을 것 같았습니다.

정류장 근처까지 오니 못보던 버거가게가 있네요.



세트메뉴로 하니 9,800원이 나왔습니다. 오늘만큼은 수고한 나에게 선물이라고 생각하고 맛있게, 그리고 여유 있게 먹었습니다.



음? 건너편에 SUBWAY 가! 다음 시험때는 저기에서 먹어야겠습니다.



한화 빌딩 앞에서 버스를 타는데, 태양전지 발전 정류소라 합니다. 제가 좋아하는 태양 전지라니!



그러고 보니 정류소 지붕 위에 태양 전지판이 설치되어 있었습니다. ECO 는 좋은 것입니다.



강남으로 가는 한남대교에서... 가을 하늘이 더할 나위 없이 좋습니다.





10. 결과


운이 좋았는지 다행히 PASS 하였습니다!!!



점수는 720 커트라인에 755점. 역시 이 맛에 시험 칩니다. (라고 하기엔 매번...)



분야별로 본다면, 전반적으로 고루 나왔네요.



Benefit 도 새로이 갱신 되었습니다. 정말 매번 패스할 때 마다 공짜 Practice 와 50% discount 가 나오는군요.






FIN


시험은 dump 로 하는게 아닌 것이라고 이번에 배우게 되었습니다.

Dump 처럼 나왔더라도 dump 와 동일하게 나온 것은 5문제 될까 말까...


Solution Architect 시험인지라, 상황을 제시하고 해결 위한 답을 찾아야 합니다.

답들도 서로 비슷비슷하게 해 놔서, 해당 지식을 확실히 알고 있지 못하면, 문제를 풀 수 없습니다.


온라인 강의에서 했던 말이 계속 귀에 맴돕니다.


"get hands dirty"


쉽게 공부하지 말고, 직접 손으로 해보면서 불편하게 공부하라는 이야기 입니다.

이 문구가 이 시험의 근본을 설명한다고 생각합니다.


쥐어 짜면서 공부했지만, 결과가 좋아서 기분이 너무 좋습니다.

이제 Architect - Professional 을 위해 다시 시작합니다.


And

Software | AWS Certified 자격증 취득기 - 1

|

1. 이번엔 AWS 다~!


저번 Microsoft 공인 인증 시험 시리즈에 이어, 이번달 부터는 Amazon Web Service (AWS) 공인 인증서 취득 도전을 시작했습니다.

최근 IT vendor 중에서 1위 업체이기도 하고, 취업시 도움이 많이 되어 인기 있는 인증서니까요.


AWS 인증서 체계는 아래 스샷에 잘 설명되어 있습니다.



AWS 에 대한 기초적인 개념은 "Cloud Practitioner" 이고, 이걸 바탕으로 각 IT 부문별 4가지로 분류됩니다.


- Architect

- Developer

- Operations

- Specialty (Advanced Networking / Big Data / Security)


Specialty 를 제외하고, 각 분야별로 레벨이 Associate (기본) 과 Professional (전문가) 로 또 나뉘어 있습니다.

저는 아래 순서대로 자격증 취득을 목표로 하고 있습니다.


Cloud Practitioner > Solutions Architect - Associate > Solutions Architect - Professional

> Advanced Networking > Big Data > Security


총 6개 과목에 대해 도전할 예정입니다.

Solutions Architect - Professional 까지만으로도 충분할 것 같지만, 이왕 하는 김에 Specialty 도 도전해 보려구요.

AWS 의 특화 분야 활용이 최종적으로 어떻게 되는지도 너무 궁금하기도 하고.


각 과목당 해당 시험 코드가 있습니다. 시험 공부와 신청 시, 이 코드로 서로 엮여 있으므로 알고 있는게 좋습니다.


AWS Certified Cloud Practitioner                   CLF-C01

AWS Certified Developer - Associate                DVA-C01
AWS Certified Solutions Architect - Associate      SAA-C01
AWS Certified SysOps Administrator - Associate     SOA-C01

AWS Certified DevOps Engineer - Professional       DOP-C01
AWS Certified Solutions Architect - Professional   SAP-C01

AWS Certified Advanced Networking - Specialty      ANS-C00
AWS Certified Alexa Skill Builder - Specialty      AXS-C01
AWS Certified Big Data - Specialty                 BDS-C00
AWS Certified Machine Learning - Specialty         MLS-C01
AWS Certified Security - Specialty                 SCS-C01


정리하면서 알게된 것인데, Machine Learning 도 생겼나 보네요.

욕심은 나지만, 일단 6개 도전입니다.





2. On-line training


AWS 인증서 준비에 필요한 온라인 강의가 Amazon 으로부터 무료로 제공됩니다.

아래 사이트에서 본인 등록 하고, 강의를 찾아 봅니다.


* AWS training and certification

https://www.aws.training/


처음 시험으로 Cloud Practitioner 를 준비할 것이기에, 아래 강좌를 신청합니다.



이 강좌를 시작하면, 아래와 같이 각 세션별로 강의가 분리되어 있습니다.

전부 다 합쳐봐야 몇 시간 안되므로 집중해서 열씸히 수업합니다.



여기서 다시금 인식한 사실.

AWS 서비스는 고객이 Cloud 에 직접 시버스를 구축할 수 있도록 하기위해 이 많은 서비스들이 생겨났다. 입니다.

이런 인증서 시스템을 통해, 꾸려놓은 서비스들을 효과적으로 보급하고, 시험으로 돈도 벌고... 장사꾼이지만 좋은 방법입니다.



Amazon 에 근무하는 사람들도 이 많은 시스템을 알아야 하니,

미리 인증서로 공부시켜 놓고, 인증서를 딴 사람을 채용 대상으로 하는 이유도 여기에 있을 것 같네요.


마침 시험 당일 하루 전 (9월 2일)에 온라인 워크샵이 있어서 webinar 에 참석했습니다.


* 무료 'AWS 자격증 시험 준비 워크샵'

https://pages.awscloud.com/get_certified_kr_2019.html



Cloud Practitioner 와 Architect - Associate 과정이 있습니다.

기본 내용은 AWS on-line 교육과 동일한 내용입니다만, 여기서는 한글로 강의를 해 줍니다.






3. 정리


AWS 의 각 서비스들에 대해 공부하면서 간단히 정리해 봤습니다.

제가 영어 시험을 신청한 터라, 자료 정리를 영어로 했습니다. 한글 정리본은 제일 밑에 따로 올려 놨습니다.


AWS 자격 인증은, 우선 어떤 서비스들이 있고, 어떤 기능을 가지는지를 물어봅니다.

그래서 아래와 같이 각 서비스의 명칭과 그에 대한 간단한 설명을 남겨 봅니다.


Amazon EC2


https://aws.amazon.com/ec2/

A web service that provides secure, resizable compute capacity in the cloud. It is designed to make web-scale cloud computing easier for developers.


* On-Demand

- Users that prefer the low cost and flexibility of Amazon EC2 without any up-front payment or long-term commitment

- Applications with short-term, spiky, or unpredictable workloads that cannot be interrupted

- Applications being developed or tested on Amazon EC2 for the first time

* Reserved Instances (up to 75% save compared to On-Demand)

- Applications with steady state usage

- Applications that may require reserved capacity

- Customers that can commit to using EC2 over a 1 or 3 year term to reduce their total computing costs

* Spot Instances (up to 90% save compared to On-Demand)

- Applications that have flexible start and end times

- Applications that are only feasible at very low compute prices

- Users with urgent computing needs for large amounts of additional capacity

* Dedicated hosts

- Can be purchased On-Demand (hourly).

- Can be purchased as a Reservation for up to 70% off the On-Demand price.

* Per Second Billing

- On-Demand, Reserved and Spot forms

- All regions and Availability Zones

- Amazon Linux and Ubuntu


Amazon Virtual Private Cloud (VPC)



https://aws.amazon.com/vpc/

lets you provision a logically isolated section of the AWS Cloud where you can launch AWS resources in a virtual network that you define.


Amazon EBS (Elastic Block Storage)


https://aws.amazon.com/ebs/

An easy to use, high performance block storage service designed for use with Amazon Elastic Compute Cloud (EC2) for both throughput and transaction intensive workloads at any scale. A broad range of workloads, such as relational and non-relational databases, enterprise applications, containerized applications, big data analytics engines, file systems, and media workflows are widely deployed on Amazon EBS.


Amazon EFS (Elastic File System)


https://aws.amazon.com/efs/

provides a simple, scalable, elastic file system for Linux-based workloads for use with AWS Cloud services and on-premises resources. It is designed to provide massively parallel shared access to thousands of Amazon EC2 instances, enabling your applications to achieve high levels of aggregate throughput and IOPS with consistent low latencies.


Amazon S3 (Simple Storage Service)


https://aws.amazon.com/s3/

An object storage service that offers industry-leading scalability, data availability, security, and performance. This means customers of all sizes and industries can use it to store and protect any amount of data for a range of use cases, such as websites, mobile applications, backup and restore, archive, enterprise applications, IoT devices, and big data analytics.

S3 에 있는 object 는 HTTP 프로토콜 + bucket prefix 를 이용하여 마음대로 꺼내 쓸 수 있다.



Amazon Route 53


https://aws.amazon.com/route53/

A highly available and scalable cloud Domain Name System (DNS) web service. It is designed to give developers and businesses an extremely reliable and cost effective way to route end users to Internet applications by translating names like www.example.com into the numeric IP addresses like 192.0.2.1 that computers use to connect to each other. Amazon Route 53 is fully compliant with IPv6 as well.


Elastic Load-Balancing


https://aws.amazon.com/elasticloadbalancing/

Automatically distributes incoming application traffic across multiple targets, such as Amazon EC2 instances, containers, IP addresses, and Lambda functions.


Amazon CloudFront


https://aws.amazon.com/cloudfront/

A fast content delivery network (CDN) service that securely delivers data, videos, applications, and APIs to customers globally with low latency, high transfer speeds, all within a developer-friendly environment.

- keywords : CDN / edge location


AWS Direct Connect


https://aws.amazon.com/directconnect/

A cloud service solution that makes it easy to establish a dedicated network connection from your premises to AWS. Using AWS Direct Connect, you can establish private connectivity between AWS and your datacenter, office, or colocation environment, which in many cases can reduce your network costs, increase bandwidth throughput, and provide a more consistent network experience than Internet-based connections.


AWS Data Pipeline


https://aws.amazon.com/datapipeline/

A web service that helps you reliably process and move data between different AWS compute and storage services, as well as on-premises data sources, at specified intervals.


Amazon RDS (Relational Database Service)


https://aws.amazon.com/rds/

makes it easy to set up, operate, and scale a relational database in the cloud. It provides cost-efficient and resizable capacity while automating time-consuming administration tasks such as hardware provisioning, database setup, patching and backups.


Amazon DynamoDB (NoSQL)


https://aws.amazon.com/dynamodb/

A key-value and document database that delivers single-digit millisecond performance at any scale. It's a fully managed, multiregion, multimaster, durable database with built-in security, backup and restore, and in-memory caching for internet-scale applications.


Amazon ElastiCache



https://aws.amazon.com/elasticache/

Fully managed Redis and Memcached. Seamlessly deploy, run, and scale popular open source compatible in-memory data stores. Build data-intensive apps or improve the performance of your existing apps by retrieving data from high throughput and low latency in-memory data stores.


Amazon Aurora


https://aws.amazon.com/rds/aurora/

A MySQL and PostgreSQL-compatible relational database built for the cloud, that combines the performance and availability of traditional enterprise databases with the simplicity and cost-effectiveness of open source databases.


AWS Snowball


https://aws.amazon.com/snowball/

A petabyte-scale data transport solution that uses devices designed to be secure to transfer large amounts of data into and out of the AWS Cloud. Using Snowball addresses common challenges with large-scale data transfers including high network costs, long transfer times, and security concerns.


Amazon Redshift


https://aws.amazon.com/redshift/

The world's fastest cloud data warehouse today and gets dramatically faster every year.  Highly concurrent workloads? Not a problem.  Redshift can handle virtually unlimited concurrency.  


AWS Database Migration Service

helps you migrate databases to AWS quickly and securely. The source database remains fully operational during the migration, minimizing downtime to applications that rely on the database. The AWS Database Migration Service can migrate your data to and from most widely used commercial and open-source databases.

AWS Migration Hub
provides a single location to track the progress of application migrations across multiple AWS and partner solutions. Using Migration Hub allows you to choose the AWS and partner migration tools that best fit your needs, while providing visibility into the status of migrations across your portfolio of applications.


Amazon EMR (Elastic MapReduce)


https://aws.amazon.com/emr/

The industry leading cloud-native big data platform, allowing teams to process vast amounts of data quickly, and cost-effectively at scale. Using open source tools such as Apache Spark, Apache Hive, Apache HBase, Apache Flink, and Presto, coupled with the dynamic scalability of Amazon EC2 and scalable storage of Amazon S3, EMR gives analytical teams the engines and elasticity to run Petabyte-scale analysis for a fraction of the cost of traditional on-premise clusters.


AWS Lambda


https://aws.amazon.com/lambda/

With Lambda, you can run code for virtually any type of application or backend service - all with zero administration. Just upload your code and Lambda takes care of everything required to run and scale your code with high availability.


AWS OpsWorks



https://aws.amazon.com/opsworks/

A configuration management service that provides managed instances of Chef and Puppet. Chef and Puppet are automation platforms that allow you to use code to automate the configurations of your servers.


AWS Elastic Beanstalk


https://aws.amazon.com/elasticbeanstalk/

An easy-to-use service for deploying and scaling web applications and services developed with Java, .NET, PHP, Node.js, Python, Ruby, Go, and Docker on familiar servers such as Apache, Nginx, Passenger, and IIS.


Amazon CloudFormation


https://aws.amazon.com/cloudformation/

provides a common language for you to describe and provision all the infrastructure resources in your cloud environment. CloudFormation allows you to use a simple text file to model and provision, in an automated and secure manner, all the resources needed for your applications across all regions and accounts.


Amazon Inspector

https://aws.amazon.com/inspector/

An automated security assessment service that helps improve the security and compliance of applications deployed on AWS. Amazon Inspector automatically assesses applications for exposure, vulnerabilities, and deviations from best practices.


AWS Trusted Advisor


https://aws.amazon.com/premiumsupport/technology/trusted-advisor/

An online tool that provides you real time guidance to help you provision your resources following AWS best practices.

Whether establishing new workflows, developing applications, or as part of ongoing improvement, take advantage of the recommendations provided by Trusted Advisor on a regular basis to help keep your solutions provisioned optimally.


Amazon CloudWatch


https://aws.amazon.com/cloudwatch/

A monitoring and observability service built for DevOps engineers, developers, site reliability engineers (SREs), and IT managers. CloudWatch provides you with data and actionable insights to monitor your applications, respond to system-wide performance changes, optimize resource utilization, and get a unified view of operational health.


AWS CloudTrail


https://aws.amazon.com/cloudtrail/

A service that enables governance, compliance, operational auditing, and risk auditing of your AWS account. With CloudTrail, you can log, continuously monitor, and retain account activity related to actions across your AWS infrastructure.


AWS X-Ray


https://aws.amazon.com/xray/

helps developers analyze and debug production, distributed applications, such as those built using a microservices architecture. With X-Ray, you can understand how your application and its underlying services are performing to identify and troubleshoot the root cause of performance issues and errors.


Amazon WorkSpaces

https://aws.amazon.com/workspaces/

A managed, secure cloud desktop service. You can use Amazon WorkSpaces to provision either Windows or Linux desktops in just a few minutes and quickly scale to provide thousands of desktops to workers across the globe.


AWS Organizations

https://aws.amazon.com/organizations/

helps you centrally govern your environment as you grow and scale your workloads on AWS. Whether you are a growing startup or a large enterprise, Organizations helps you to centrally manage billing; control access, compliance, and security; and share resources across your AWS accounts.


AWS Identity and Access Management (IAM)

https://aws.amazon.com/iam/

enables you to manage access to AWS services and resources securely. Using IAM, you can create and manage AWS users and groups, and use permissions to allow and deny their access to AWS resources. 


Amazon Lightsail

https://aws.amazon.com/lightsail/

An easy-to-use cloud platform that offers you everything needed to build an application or website, plus a cost-effective, monthly plan. Whether you’re new to the cloud or looking to get on the cloud quickly with AWS infrastructure you trust, we’ve got you covered.


About AWS

https://aws.amazon.com/about-aws/


AWS Whitepapers & Guides

https://aws.amazon.com/whitepapers/


AWS Cost Management

https://aws.amazon.com/aws-cost-management/

Access your monthly bill

View the overall status of your AWS costs and usage


* AWS Cost Explore

https://aws.amazon.com/aws-cost-management/aws-cost-explorer/

Explore your costs and usage


* AWS Budgets

https://aws.amazon.com/aws-cost-management/aws-budgets/

Set custom cost and usage budgets


* AWS Cost & Usage Report

https://aws.amazon.com/aws-cost-management/aws-cost-and-usage-reporting

Access comprehensive cost and usage data


AWS Total Cost of Ownership (TCO) Calculators

https://aws.amazon.com/tco-calculator/


AWS Total Cost of Ownership (TCO) Calculator

https://awstcocalculator.com/



Compare AWS Support Plans

https://aws.amazon.com/premiumsupport/plans/



보다 자세한 내용은 각 서비스의 링크를 통해 확인해 보시면 되겠습니다.

또한 whitepaper 도 꼭 읽으면 시험에 도움이 많이 됩니다. 즉, 시간이 많이 필요합니다.


모든 내용을 여기서 다룰 수가 없어서 여기에 소개되지 않은 서비스들도 있습니다.

기본 서비스 및 시험에서 나온 문제들 위주로 위에 소개했으며, 그렇지 않은 것도 많이 있다는 것을 염두에 두시기 바랍니다.





4. 정리한 자료


개념 잡기에 도움이 되는 자료

------------------------------------------------------

aws-overview.pdf

Architecting on AWS - Key Concepts.pdf


지금까지 AWS 가 제공하는 온라인 강의의 스크린 샷을 정리한 자료

------------------------------------------------------

AWS_CLF-C01_20190808_chocoball.pdf

AWS_CLF-C01_20190902_chocoball.pdf


회사 동료가 제공해준 자료를 공유합니다. 실제 시험에서 동일한 문제가 많이 나왔습니다.

------------------------------------------------------

CLF-CO1_AWS_Certified_Cloud_Practitioner_2019.zip


온라인 워크샵을 통해 강사분이 공유해 주신, 비공식 Architect - Associate 시험 자료도 참고가 많이 되었습니다. (어차피 볼 시험이라)


* serithemage/AWSCertifiedSolutionsArchitectUnofficialStudyGuide

https://github.com/serithemage/AWSCertifiedSolutionsArchitectUnofficialStudyGuide


또한, 이미 이 시험을 보신 분이, 자세히 정리해 주신 글이 있어 정독 3번 했습니다.


* AWS 자격증 시험 - 클라우드 종사자(Cloud Practitioner) 후기

https://yongho1037.tistory.com/783





5. 시험 등록


aws.training 사이트에서 Certification 메뉴에 들어가면, 시험 등록 사이트로 점프 합니다.



등록이 되지 않았으면 등록해 주시구요.



이번에는 PSI 시험장에서 시험을 봤습니다. 이상하게도 Pearson VUE 시험장은 찾을 수 없었습니다.



시험장과 시간을 지정하고, 신용카드로 결제 합니다. 세금 포함 12만 5천 4백원이 PSI 및 Amazon 수익으로 갔습니다.






6. 시험 당일


아침 5시반에 일어나 정갈한 마음으로 목욕한 다음, 편안한 마음으로 집을 나섰습니다.



거의 두 달만이네요. 반갑다 KG 에듀원 아이티뱅크.



저번에 본 Pearson VUE 시험장이 이번에는 PSI 시험장이 됩니다. 이 두 시험평가 기관의 기준을 모르겠습니다.



65문제 80분 시험이었습니다만, 13분정도 남기고 끝냈습니다.

문제 은행식이 아니다 보니, 문제를 잘 읽어야 해서 시간이 넉넉하지 않았네요.


시험을 끝내고 건물 밖으로 나오니, 낡으면서 특이한 건물이 보였습니다.

혹시... 피카다리?



회사로 출근하기 위해 종로 3가에서 2가로 걸어갑니다. 거리엔 90% 어르신들과 5%의 젊은이, 5% 의 외국인이 있었습니다.

노인 비율이 갈수록 커져가는 동네가 되었네요.



흠! 이거슨! 바로 들어갑니다.



좀 이른 점심을 먹습니다. 2층에서 보니 종로 2가의 교차로가 잘 보이네요.



저의 기억에 남아있는 종로는 대학생 때라, 20년도 더된 옛날입니다. 정말 많이 바뀌었네요.

한화빌딩을 처음 봤습니다만, 호감가게 잘 지어진것 같습니다.





7. 시험 결과


시험결과는 PASS 였습니다. 시험 끝나자 마자 모니터에 뜹니다. 그렇지만 Microsoft 때 처럼 print 물로는 제공해 주지 않습니다.



나중에 인증 사이트에서 확인하니, 다음과 같이 업데이트 정보가 올라와 있었습니다.



역시 합격은 턱걸이가 제맛이죠! 1000전 만점에 727점으로 턱걸이 하였습니다.



Security 랑 Billing 부분을 더 공부하라 합니다.

다음 Architect - Associate 를 공부할 때, 이 부분을 좀더 중점적으로 봐야겠습니다.



이만하면 첫발은 성공적이었습니다.

이제 다음 시험을 위한 준비를 다시 시작합니다.


And

Software | Daum AdFit 등록해 보기

|

1. 광고


고백하자면, 이 블로그를 시작한 이유 중 하나가 본업 외에 용돈도 좀 벌어보자도 있었습니다.

지금은 광고 수입이 너무 작아, 신경쓰지 않고 자아 실현에 그 중점을 옮겼습니다만 :-)


지금까지 AdSense 만을 광고 툴로 사용해 왔습니다.


* Software | Google Analytics 를 이용한 블로그 분석

https://chocoball.tistory.com/entry/Software-Google-Analytics-blog


* Software | Google AdSense 가입 및 설정하기

https://chocoball.tistory.com/entry/Software-Google-AdSense-PC


수익을 오픈해 보자면, 3년 걸려서 30 USD 정도 수입이 생겼습니다.

이 정도 블로그에서 용돈을 생각한다면 너무 과한 욕심이죠.




2. Daum 에는 AdFit


회사 동료로부터 블로그 시작한지 얼마 되지 않아 소주 한병 마실 정도는 되었다는 정보를 입수.

저도 AdFit 을 적용하기로.


사실 광고가 너무 많으면, 글 읽는데 집중이 되지 않으니, 최소한으로 하려 했습니다만,

돈앞에 장사 없으므로, 저도 한번 AdFit 을 적용해 보기로 합니다.





3. 등록


아래 link 에서 ID 등록합니다.


* Daum AdFit

https://adfit.biz.daum.net/



뭔가 동의하는 페이지에서 동의해 주구요.



시키는 대로, 계정에 대한 정보를 다 넣어주면 됩니다.






4. 등록


이제 web page 에 광고를 삽입하기 위한 HTML code 를 얻을 차례 입니다.



저의 이 블로그에 올린꺼라고 알려 주고요.



전체 페이지에서의 위치, 크기 등을 정하고 코드를 받습니다. 



그런 다음, 블로그의 "플러그인" 메뉴에 가서 Daum AdFit 설정에 들어갑니다.



AdFit 관리 화면서에 등록한 대로, 동일한 위치와 크기의 profile 을 만듭니다.

그리고 그 profile 에 HTML code 를 복사하기 합니다.



이렇게 하므로써, 직접 HTML coding 할 필요 없이, Tistory 에서 자동으로 지원하는 플러그인이 web page 로딩시 삽입해 주게 됩니다.

넘 편해~.





5. 적용 후


적용하면, 아래처럼 의도한 대로 광고가 노출됩니다.



아래도요.



다만, Google AdSense 처럼, 광고 노출이 적절한 사이트 인지 심사가 있습니다.

심사 결과가 나오지 않아서, 첫날은 그냥 노출만 되고 실제 수익에는 반영되지 않습니다.






6. 심사 완료


3년정도 블로그에 계속 글을 올려서 인지, 하루만에 심사 패스 했습니다.

이제 돈좀 벌어 보자~!



상단 오른쪽에 하나 더 심었습니다.



각 페이지 하단에도 하나 심었구요.



한 3일 지나니 아래와 같은 그래프를 보여 줬습니다.



한 1000년 있으면 부자 될 것 같습니다.


글이 워낙 기술 기술 하다보니 재미도 없고, 유입이 없는것 같네요.

web site 에서 기술적으로 대응할 수 있는 부분은 대부분 손 본것 같고, 이제 글 내용을 조금 재미있게 쓸 수 있게 노력해 보겠습니다.


그러면서도 이 딱딱한 문체는 잘 바뀌지 않네요. 하... 고민.


And

Software | SyntaxHighlighter v4.0.1 로 업데이트 하기

|

지금까지 SyntaxHighlighter 를 사용하여, source code 들이 console 에서 보여지는 것 처럼 표현해 왔습니다.


* Software | TISTORY 에서 소스코드 보이기

https://chocoball.tistory.com/entry/SoftwareTISTORYshowSourceCode


그런데, 제가 기존에 사용한 theme 가 default - 배경 흰색 이더군요.

Theme 을 바꿔 볼까 하던 중, SyntaxHighlighter 자체가 version up 이 되어 있다는 것을 알게 되었습니다.


3.0.83 > 4.0.1



원제작자 사이트는 아래와 같습니다.


* syntaxhighlighter/syntaxhighlighter

https://github.com/syntaxhighlighter/syntaxhighlighter


작업 한김에 버전업을 진행해 봅니다.





1. 필요한 파일


필요한 파일은, 최신 공개된 파일을 가지고 Linux 나 OS X 머신에서 compile 하면 됩니다.

문제는 지금 제가 Linux / OS X 머신을 사용하고 있지 않습니다.


위의 웹사이트에 나와 있는 가이드 대로 컴파일 하면, 또한 즐겁겠으나,

그러질 못하니 필요한 파일을 여기저기 적용된 사이트에서 다운로드 하여 유용하기로 합니다.


- theme.css

- syntaxhighlighter.js

- syntaxhighlighter.js.map


Theme 는 배경이 검은색인 RDark 를 적용한 사이트를 찾아 다운로드 했습니다.

제가 다운로드 하여 이 블로그에 적용된 파일을 여기서 공유해 봅니다.


syntaxhighlighter.zip


한가지 주의점은, 제가 직접 compile 을 하지 않아서 그런지, mobile 에서는 제대로 동작하지 않습니다.

나중에 Linux 머신 구하게 되면 그 때 해보겠습니다.


일단 위의 세개 파일을 아래 메뉴에서 업로드 합니다.


Tistory > 꾸미기 > 스킨편집 > Html 편집 > 파일업로드



파일이 올라간 위치를 잘 기억해 둡니다.

"images" 폴더에 올라갔네요.


이제 남은 것은, HTML 의 head 부분만 수정하면 됩니다.





2. 기존 설정 해제


저는 3.0.83 버전 설정과 파일이 올라가 있으므로, 그것을 해제해 줍니다.

처음 설치하시는 분은 이 부분을 건너 뛰면 되겠습니다.


가만 보니, 4.0.1 버전 설정과 겹치는 부분이 없으므로,

단순히 disable - comment out 해 놓고, 예전 버전의 파일도 걍 놔두기로 합니다.


혹시 나중에 모르잖아요.



우선 head 섹션에 설정되어 있던 관련 라인을 몽땅 comment out 시키구요.



body 끝부분에 설정해 놓은 javascript 부분도 주석처리 합니다.

한방에, 이쁘게 잘 되었네요.





3. 새로운 설정


4.0.1 버전은 단 3줄로 설정이 끝납니다. (아래는 가이드에 설명된 내용)







자세히 보면, 필요한 파일에 대한 구문이 javascript 와 link 로 정의되어 있습니다.







head 섹션에 위의 구문을 넣어 줍니다.

끝~!





4. 차이


Version up 도 했지만, 기본적으로 차이가 없으므로,

theme 변경에 따른 source code 표시 시, 배경이 아래처럼 바뀌었습니다.



흠흠, 의도한 대로 되었습니다!






5. 다른 옵션들


아래 링크의 가이드에도 나와 있지만, 자잘한 기능들도 있었네요.


* Configuration

https://github.com/syntaxhighlighter/syntaxhighlighter/wiki/Configuration


* auto-links (Default true)

Allows you to turn detection of links in the highlighted element on and off. If the option is turned off, URLs won’t be clickable.

* class-name (Default null)

Allows you to add a custom class (or multiple classes) to every highlighter element that will be created on the page.

* first-line (Default 1)

Allows you to change the first (starting) line number.

* gutter (Default true)

Allows you to turn gutter with line numbers on and off.

* highlight (Default null)

Allows you to highlight one or more lines to focus user’s attention. When specifying as a parameter, you have to pass an array looking value, like [1, 2, 3] or just an number for a single line. If you are changing SyntaxHighlighter.defaults['highlight'], you can pass a number or an array of numbers.

* html-script (Default false)

Allows you to highlight a mixture of HTML/XML code and a script which is very common in web development. Setting this value to true requires that you have shBrushXml.js loaded and that the brush you are using supports this feature.

* smart-tabs (Default true)

Allows you to turn smart tabs feature on and off.

* tab-size (Default 4)

Allows you to adjust tab size.


위의 옵션들 중에서 제가 쓸만한 내용만 확인해 봤습니다.





6. first-line


라인 넘버링 시작 번호를 1번이 아니라 원하는 번호로 바꿀 수 있습니다.


<pre class="brush:cpp; first-line:5;">
#include "SoftwareSerial.h"
 
#define HC06_RXD 2
#define HC06_TXD 3
SoftwareSerial bluetooth(HC06_RXD, HC06_TXD);
 
void setup(){
  Serial.begin(9600);
  bluetooth.begin(9600);
}
</pre>


어디선가 발췌 한 듯한 효과를 줄 수 있으며, 정확한 라인 정보를 추가 설명 없이도 공유할 수 있습니다.


#include "SoftwareSerial.h"
 
#define HC06_RXD 2
#define HC06_TXD 3
SoftwareSerial bluetooth(HC06_RXD, HC06_TXD);
 
void setup(){
  Serial.begin(9600);
  bluetooth.begin(9600);
}





7. gutter


왼쪽에 표시되는 라인 번호를 없앨 수 있습니다.


<pre class="brush:cpp; gutter:false;">
#include "SoftwareSerial.h"
 
#define HC06_RXD 2
#define HC06_TXD 3
SoftwareSerial bluetooth(HC06_RXD, HC06_TXD);
 
void setup(){
  Serial.begin(9600);
  bluetooth.begin(9600);
}
</pre>


이렇게요.


#include "SoftwareSerial.h"
 
#define HC06_RXD 2
#define HC06_TXD 3
SoftwareSerial bluetooth(HC06_RXD, HC06_TXD);
 
void setup(){
  Serial.begin(9600);
  bluetooth.begin(9600);
}





8. highlight


강조하는 줄을 마킹할 수 있습니다.


<pre class="brush:cpp; highlight:3;">
#include "SoftwareSerial.h"
 
#define HC06_RXD 2
#define HC06_TXD 3
SoftwareSerial bluetooth(HC06_RXD, HC06_TXD);
 
void setup(){
  Serial.begin(9600);
  bluetooth.begin(9600);
}
</pre>


이렇게요.


#include "SoftwareSerial.h"
 
#define HC06_RXD 2
#define HC06_TXD 3
SoftwareSerial bluetooth(HC06_RXD, HC06_TXD);
 
void setup(){
  Serial.begin(9600);
  bluetooth.begin(9600);
}


복수의 줄을 한꺼번에 설정할 수 있습니다.


<pre class="brush:cpp; highlight:[4,7,8];">
#include "SoftwareSerial.h"
 
#define HC06_RXD 2
#define HC06_TXD 3
SoftwareSerial bluetooth(HC06_RXD, HC06_TXD);
 
void setup(){
  Serial.begin(9600);
  bluetooth.begin(9600);
}
</pre>


이것도 꽤 유용하겠네요.


#include "SoftwareSerial.h"
 
#define HC06_RXD 2
#define HC06_TXD 3
SoftwareSerial bluetooth(HC06_RXD, HC06_TXD);
 
void setup(){
  Serial.begin(9600);
  bluetooth.begin(9600);
}





9. tab-size


Tab 으로 띄어 쓰기가 되어 있으면, 기본 4칸을 띄우는데,

이 기본 4칸을 원하는 칸 수로 바꿀 수 있습니다.


<pre class="brush:cpp; tab-size:12;">
#include	"SoftwareSerial.h"
 
#define	HC06_RXD 2
#define	HC06_TXD 3
</pre>


만, 제대로 되지 않는군요.


#include	"SoftwareSerial.h"
 
#define	HC06_RXD	2
#define	HC06_TXD	3


아마 직접 compile 한게 아닌 파일을 사용하고 있어서 뭔가 맞지 않는지도 모르겠습니다.

자주 사용할 내용은 아니라 무시하기로 합니다.





FIN


나중에 시간 되면 Linux 에서 제대로 compile 해서 올려 놓겠습니다~


And

Software | MCSE + DP 도전기 - 6

|

이 글은 1, 2, 3, 4편을 통해 MCSE 를 취득 후,

MCSA : SQL 2016 Database Administration 가 되기 위한 두 번째 exam 70-765 도전기 입니다.


* Software | MCSE + DP 도전기 - 1

https://chocoball.tistory.com/entry/Software-MCSE-DP-challenge-1


* Software | MCSE + DP 도전기 - 2

https://chocoball.tistory.com/entry/Software-MCSE-DP-challenge-2


* Software | MCSE + DP 도전기 - 3

https://chocoball.tistory.com/entry/Software-MCSE-DP-challenge-3


* Software | MCSE + DP 도전기 - 4

https://chocoball.tistory.com/entry/Software-MCSE-DP-challenge-4





1. 70-765


이 시험은 SQL Database 의 활용에 대한 내용입니다.


* 70-765 : Provisioning SQL Databases

https://www.microsoft.com/en-us/learning/exam-70-765.aspx


시험은 764 와 분리되어 있지만, 사실 거의 한몸이라고 봐야 합니다.
공부 마무리 하면서 버리고 싶은 764 프린트 물을 한번 더 봤습니다.
그 많은 문항을 또 머릿속에 다시금 새겨 넣어야 했으므로, 토할것 같았어요.





2. dump


764 와 비교하여 dump 문항 수는 그리 많지 않습니다. 400 문제 정도.


70-765 - Provisioning SQL Databases.zip.001

70-765 - Provisioning SQL Databases.zip.002





3. 시험장


마지막 시험은, 지금까지 가장 많이 이용한 KD-TECH 으로 정했습니다.



시작과 끝을 이 시험장에서 치루게 되었네요.





4. 시험 후기


총 50문제, 700점 커트라인으로, 745/700 으로 패스 했습니다.


765 dump 는 400여문제밖에 되지 않아, 덤프 마스터가 된 이 상황에서는 주말에 집중하고 4시간만에 다 봐버렸습니다.

어차피 DP 는 764 든 765 든, 동일한 DB 를 취급하는지라, 이미 끝나서 폐기하고 싶은 764 를 되새김질 했습니다.


막상 시험에 들어가니 역시나... 50문제 중 20문제는 처음보는 문제들이였구요.

지금까지의 IT 경력을 끌어 모아 본것 같습니다.


한가지 식겁했던 건, 50문제라고 표시되어 시험보기 시작했는데, 45문제라고 표시되는 겁니다. 

알고보니, 45문제 finish 버튼을 클릭하면 Case Study 5문제를 따로 시작합니다.

2가지 Case 들이 나왔구요, 당연히 처음보는 친구들이었습니다.


공부하시는 분들에게 팁을 드리자면, dump 에 해답 설명되어 있는것도 꼼꼼히 읽어보시길 권해 드립니다.

Dump 문제로는 나오지 않았지만, 문제 해설도 알고 있어야 풀 수 있는 새로운 문제들이 Case 문제에서 출제되었습니다.


시험보는 내내 "시험 불감증" 이 걸려버려 긴장이 어떻게 해도 안되는게 힘들었습니다.

이 시간만 빨리 끝내자... 같은.

짧은 시간에 연속적으로 시험을 봐서 그런지, 육체적, 정신적으로 burn out 된 것 같았습니다.


그렇다고 fail 하게 되면... 가지고 있는 dump 를 또 보더라도 더 잘볼 수 있을것 같지가 않아, 찍는것에 온 신경을 집중했네요.


무사히 끝내서 너무 홀가분 합니다.

사무실 오면서 초여름 날씨를 한껏 느끼면서 되도록 천천히 왔습니다.



후... 900 점대를 넘지 못하고 이렇게 끝나는 군요.

그렇지만, 주어진 짧은 기간 동안 6과목을 한번의 실패 없이 Pass 했다는 것에 많은 의의를 두겠습니다.





5. badge


Microsoft Learning 사이트 가보니 Exam pass badge 가 올라와 있었습니다.



드. 디. 어.

이번 대장정의 마무리인 MCSA : SQL 2016 Database Administration 취득 했습니다.






6. 마치며


지금까지 공부하기 위해 프린트 한 dump 사진을 올려 봅니다.



지구와 나무에게 미안하군요.

혹시 나중에 시험보게 되면, tablet 을 구해서 하는게 낫지 않을까 합니다.



비교를 위해 무선 마우스와 함께 찍어 봤습니다. 농축된 24일간의 여정이네요.


Pass 했던 시험을 순서대로 나열해 보면 아래와 같습니다.



최종적으로 이번에 3가지 certificate 를 얻게 되었습니다.



2019년 초여름의 이 기간은, 평생 기억에 남을, 밀도 있는 한달로 기억 될 것 같습니다.


And

Software | MCSE + DP 도전기 - 5

|

이 글은 1, 2, 3, 4편을 통해 MCSE 를 취득 후,

MCSA : SQL 2016 Database Administration 가 되기 위한 첫번째 exam 70-764 도전기 입니다.


* Software | MCSE + DP 도전기 - 1

https://chocoball.tistory.com/entry/Software-MCSE-DP-challenge-1


* Software | MCSE + DP 도전기 - 2

https://chocoball.tistory.com/entry/Software-MCSE-DP-challenge-2


* Software | MCSE + DP 도전기 - 3

https://chocoball.tistory.com/entry/Software-MCSE-DP-challenge-3


* Software | MCSE + DP 도전기 - 4

https://chocoball.tistory.com/entry/Software-MCSE-DP-challenge-4





1. 70-764


70-764 exam 은 MCSA : SQL 2016 Database Administration 이 되기 위한 첫번째 시험 되겠습니다.

70-765 exam 까지 Pass 하면 위의 자격증이 주어집니다.


* 70-764 : Administering a SQL Database Infrastructure

https://www.microsoft.com/en-us/learning/exam-70-764.aspx


두 시험 모두, SQL Database 2016 에 관한 문제이므로, 764 라고 해서 765 문제가 나오지 말라는 법이 없습니다.

그러니, 764 준비한다면 765 도 같이 봐야 합니다.





2. dump


역시 Database 시험 답게, dump 에 자비가 없습니다.


일주일 동안 공부하면서 약 700 문제를 풀어 봤습니다.

시험 보기 전주 주말에 캠핑을 가버린 터에, 평일 하루는 휴가 내고 하루 죙일 커피숍에 쳐박혀서 공부했네요.


70-764 - Administering a SQL Database Infrastructure.zip.001

70-764 - Administering a SQL Database Infrastructure.zip.002

70-764 - Administering a SQL Database Infrastructure.zip.003


덤프 중, 240문항이 한 세트로 된게 있습니다.

쉬면서 하면, 늘어지면서 보게 될 것 같아, 단숨에 몰아서 보긴 했는데, 시간상 거의 하루종일 걸린 것 같아요.

앉아 있으면서 좀이 쑤셔서 힘들었습니다.





3. 시험장


시험장은 1편에서 이용했던, 영등포에 있는 KD-TECH 에서, 아침 9시 30분 타임꺼를 봤습니다.



여기는 공간도 넓고 시험자들 끼리 널직이 떨어져 않아 시험을 치르게 되므로, 환경적인 스트레스가 없어서 선호합니다.





4. 시험 후기


764 후기 입니다.


44문제 나왔고 813/700 으로 패스 했습니다.

지금까지 시험 중, 난위도가 높고 dump 문항 수도 많았는데, 가장 고득점으로 Pass 하였습니다.


봐야할 덤프 자체 문항 수가 많고, DB에 관한 온갖 기능과 조합들을 머릿속에 밀어넣어야 해서, 공부하는 내내 고통스러웠습니다.

덤프 공부시간은 18시간 이상 되는것 같습니다.


시험은 덤프에서 보지 못한 문제가 20문제 이상 나왔고, 마지막까지 머리 쥐어 짜며 시험봤습니다.

74x 시험들에서 처럼, 아마도 765 덤프에서도 출제가 되었습니다.


시험 보는 내내, 이번껀 힘들겠다 라는 생각과 싸우면서도 봐서 그런지,

시험장 빠져나올 때, 다리 풀려서 벤치에서 한동안 쉬어야 했습니다.


그래도 문제 없이 Pass 한 것이 기뻤습니다.



이제 정말 한과목만 남은 것이 실감나기 시작했습니다.





5. badge


Microsoft Learning 사이트 가보니 Exam pass badge 가 올라와 있었습니다.



드디어 마지막 시험, 70-765 를 1주일 앞두고 마지막 힘을 끌어모아 봅니다.


And
prev | 1 | 2 | 3 | 4 | 5 | next