궁금한게 많은 열아홉
article thumbnail
🚨 본 글은 필자의 정보보안 수업을 들을 후 정리한 내용입니다 :)

 

지난시간에 보았듯이 우리에게 얼마나 보안이 중요한지에 대해 이야기 해보았다. 그래서 오늘은 실제로 우리의 정보가 얼마나 인터넷에 널려(?)있는지 확인해보려고 한다. 그 전에 조금더 이해를 높이기 위한 몇 가지를 알아보자.

 

인터넷의 시작

1969년 미국 ARPA(Advanced Research Projects Agency)가 전 세계 주요 거점을 연결 하는 네트워크를 처음 만들고 이 네트워크를 알파넷이라 불렀다. 흔히 알파넷을 인터넷의 시작이라고 한다.

 

인터넷을 만든 목적은 정보를 편하게 고유하기 위함인데, 처음에는 대학 내 각 연구실 사이에 데이터를 전송하기 위해 시스템 간의 통신을 위한 프로토콜(통신에 대한 약속)을 만들어 사용하였다.


하지만 점점 발전하면서 프로토콜이 늘어나자 하나의 프로토콜을 해석한 후 다른 프로토콜로 바꾸어 다른 시스템으로 전송하는 게이트웨이(gateway)가 개발되었고 이후에야 원격의 두 지점 간 통신가능하기 시작했다.

 

현재 우리는 TCP/IP(인터넷과 이와 유사한 컴퓨터 네트워크 사이에서 정보를 주고받는 데 이용되는 통신 프로토콜의 모음) 기반으로한 http 통신을 주고 받는다. 그래, 맞다. 우리가 흔히 사이트에 접속할 때 맨 앞에 붙어있는 그거.

 

누구보다 조용히, 누구보다 빠르게 

위와 같이 공개된 도메인은 사용자의 검색엔진에 노출된다. 여기서 중요한 점은 공개된 출처에서 합법적으로 수집한 정보라는 것이다. 이를 OSINT (Open Source INTelligence), 공개 출처 정보라고 한다.

언제 동의 했는지 기억이 나지 않는다면, 회원가입때를 생각해보라. 개인정보 동의를 받고 가입을 시작한 기억이 있을것이다.

 

이렇게 공개된 정보는 구글을 해킹하면 누구보다 조용히, 누구보다 빠르게 정보를 찾아 낼 수 있다.

어떻게 하냐고? 바로 구글 검색엔진을 활용하면 된다.

 

방법은 간단하다. 검색창에 자신이 검색할 키워드와 아래 키워드를 이용하면 된다.

예를 들어 '검색 키워드 site pinterest' 라고 입력 하면, pinterest 사이트에서 검색 키워드와 관련된 정보를 찾아준다.

검색하고 또 검색하다보면 자신의 흑역사를 마주할 수있다. 주의하시길...

 

헉 그러면 다 털리는 건가요ㅜㅠ

아니다. 구글 해킹을 회피할 수 있는 방법이 있다. 가장 일반적인 방법으로는 웹 서버의 홈 디렉터리에 robots.txt 파일을 만들어 검색할 수 없게 만들수 있다.

// 구글 검색 엔진의 검색을 막음.
User-agent: googlebot

// 모든 검색 로봇의 검색을 막음.
User-agent: *

// dbconn.ini 파일을 검색하지 못하게 함.
Disallow: dbconn.ini

// admin 디렉터리에 접근하지 못하게 함.
Disallow: /admin/

 

profile

궁금한게 많은 열아홉

@jjin502

포스팅이 좋았다면 "좋아요❤️" 또는 "구독👍🏻" 해주세요!