Spark启动:WARN util.Utils: Your hostname, ... resolves to a loopback address: ...; using ... instead


项目场景:

系统:Ubuntu20.04
Hadoop版本:Hadoop3.3.1
Spark版本:Spark3.2.0


问题描述:

在启动 spark-shell 时,出现如下输出:

hadoop@fzqs-Laptop:/usr/local$ spark-shell
2021-12-09 23:49:14,625 WARN util.Utils: Your hostname, fzqs-Laptop resolves to a loopback address: 127.0.1.1; using 10.132.13.98 instead (on interface wlo1)
2021-12-09 23:49:14,626 WARN util.Utils: Set SPARK_LOCAL_IP if you need to bind to another address
Setting default log level to "WARN".
......

原因分析:

这里是 spark 的本地 IP 地址未绑定导致的警告,其中 using 10.132.13.98 instead (on interface wlo1) 其中的 10.132.13.98 就是 spark 默认选择的本地 IP 地址,这里需要我们记住自己的这个 IP 地址(你的电脑上的输出,不是我的!)


解决方案:

修改配置文件,配置 SPARK_LOCAL_IP 变量即可:

cd /usr/local/spark #你自己的spark目录
sudo vim conf/spark-env.sh

添加内容如下:

export SPARK_LOCAL_IP=10.132.13.98 #注意一定要是你们自己输出对应的IP

键入 ESC 键,:wq,保存并退出。重新启动 spark-shell

/usr/local/spark/bin/spark-shell

问题解决。