整站下载:wget -r https://yuhuo.org/ -F -x -k

单页面:wget -i https://yuhuo.org/ -F -x --ignore-tags=a -k

镜像站点:wget --mirror -p --convert-links -P ./www https://yuhuo.org

组合:wget -p -k --adjust-extension --span-hosts --domains yuhuo.org,img.yuhuo.org -e robots=off -np -nH -P ./www https://yuhuo.org

常用:

-r 递归下载
-P, --directory-prefix=PREFIX 以 PREFIX/… 保存文件
-F, --force-html 把输入文件当成 HTML 文件
-x, --force-directories 强制创建目录
-e robots=off 忽略robots文件
-p, --page-requisites 下载显示HTML文件的所有图片
-k, --convert-links 让下载得到的 HTML 或 CSS 中的链接指向本地文件
--adjust-extension ‘application/xhtml+xml’ or ‘text/html’ 非html结尾,重命名为html文件
-H, --span-hosts 递归时转向外部主机。
-A, --accept=LIST 逗号分隔的可接受的扩展名列表。
-R :
--reject=LIST 逗号分隔的要拒绝的扩展名列表。
--accept-regex=REGEX regex matching accepted URLs.
--reject-regex=REGEX regex matching rejected URLs.
--regex-type=TYPE regex type (posix|pcre).
-D :
--domains=LIST 逗号分隔的可接受的域列表。
--exclude-domains=LIST 逗号分隔的要拒绝的域列表。
--follow-ftp 跟踪 HTML 文档中的 FTP 链接。
--follow-tags=LIST 逗号分隔的跟踪的 HTML 标识列表。
--ignore-tags=LIST 逗号分隔的忽略的 HTML 标识列表。
-np, --no-parent 不追溯至父目录
-nH, --no-host-directories 不要创建主目录。

wget 下载整个网站,或者特定目录 - 开源中国社区

风波竹林|fbzl | wget 命令用法详解

eg: 【Linux入门系列】wget 使用探索 - LearnShare - 博客频道 - CSDN.NET )