- vim /etc/profile
- # 增加该内容
- export HADOOP_CLASSPATH=`hadoop classpath`
- # 刷新环境变量
- source /etc/profile
- 环境变量得有hbase路径和hadoop路径没有得添加
- 然后上传后解压
- cd /opt/server
- tar -zxvf flink-x.xx.x-bin-scala_2.11.tgz
- ln -s /opt/server/flink-x.xx.x /opt/server/flink
- 修改 /yarn-site.xml (每台都需要操作)
- vim /opt/server/hadoop/etc/hadoop/yarn-site.xml
- # 修改以下内容
- <!– 关闭yarn内存检查 –>
- <!– 是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认为 true –>
- <!– 因为对于 flink 使用 yarn 模式下,很容易内存超标,这个时候 yarn 会自动杀掉 job,因此需要关掉–>
- <property> <name>yarn.nodemanager.pmem-check-enabled</name> <value>false</value> </property> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property>
- cd /opt/server/flink
- # 启动命令
- ./bin/yarn-session.sh \ -yjm 1024 \ -ytm 1024 \ -d
- 关闭session方式二种
- yarn application -kill application_XXXX_YY
- echo “stop” | ./bin/yarn-session.sh -id application_XXXXX_XXX