Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- game
- web
- script
- Update
- 대항해시대
- UNIX
- Windows 10
- apm
- Crack(Serial Key)
- Command
- SSH
- MS Windows PE
- portable
- javascript
- H/W
- OS(operating system)
- calculator
- webhard
- Network Info(Tool)
- Programming
- Backup(Restore)
- network
- LiveCD(USB)
- explorer
- program
- PC
- Disk Partition
- MS windows
- FTP
- Linux
Archives
- Today
- Total
<In Story>
웹파일 다운로더, wget //[MS Windows] [Program] [Web] [Network] 본문
Program(Tool)/MS Windows
웹파일 다운로더, wget //[MS Windows] [Program] [Web] [Network]
<In Story, Hi story, History> 2015. 4. 5. 17:25Startup
-b, --background : 백그라운드로 작동한다.
Logging and Input File
-q, --quiet : 화면에 아무런 출력을 하지 않는다.
-nv, --non-verbose : 화면에 장황한 출력을 하지 않고 간단한 출력을 한다.
Download
-t number : number만큼 받기를 시도한다. (0은 무한대)
-O filename : 페이지를 filname으로 저장한다.
--spider : 페이지를 다운받지 않고 있는지 검사만 한다.
-T seconds : seconds동안만 서버의 응답을 기다린다.
-np : 상위 디렉토리에 있는 것은 빼고 원하는 파일이하의 디렉토리에서만 다운 받는다.
-A [콤마로 구분된 파일형식] : 나열된 파일형식만 받는다.
-R [콤마로 구분된 파일형식] : 나열된 파일형식만 받지 않는다.
Directory
-nd : 디렉토리를 만들지 않는다.
-P preifx : preifx의 디렉토리를 만들어서 결과를 저장한다.
Recursive Retrival
-r : 링크를 따라가면서 반복적으로 웹페이지를 가져온다. 기본 depth는 5이다.
-l depth : -r 옵션의 depth를 지정한다.
기타
-e [환경변수]: .wgetrc 에 환경변수를 나열한 것과 같은 효과이다.
-e robots=off : robot.txt를 무시하고 받는다.
--header="User-Agent: Mozilla/4.0 (compatible; MSIE 5.0; Windows NT)" : 특정브라우저로 위장한다.
매번 같은 옵션을 커맨드라인에 사용하기 번거롭다면 .wgetrc를 사용하자.
사용예
$ wget naver.com : naver.com의 첫 페이지만 받는다.
$ wget -r -l 4 -A html,htm naver.com : naver.com을 level 4만큼 html,htm파일만 받는