• vim /etc/profile
  • # 增加该内容
  • export HADOOP_CLASSPATH=`hadoop classpath`
  • # 刷新环境变量
  • source /etc/profile
  • 环境变量得有hbase路径和hadoop路径没有得添加
  • 然后上传后解压
  • cd /opt/server
  • tar -zxvf flink-x.xx.x-bin-scala_2.11.tgz
  • ln -s /opt/server/flink-x.xx.x /opt/server/flink
  • 修改 /yarn-site.xml (每台都需要操作)
  • vim /opt/server/hadoop/etc/hadoop/yarn-site.xml
  • # 修改以下内容
  • <!– 关闭yarn内存检查 –>
  • <!– 是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认为 true –>
  • <!– 因为对于 flink 使用 yarn 模式下,很容易内存超标,这个时候 yarn 会自动杀掉 job,因此需要关掉–>
  • <property> <name>yarn.nodemanager.pmem-check-enabled</name> <value>false</value> </property> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property>
  • cd /opt/server/flink
  • # 启动命令
  • ./bin/yarn-session.sh \ -yjm 1024 \ -ytm 1024 \ -d
  • 关闭session方式二种
  • yarn application -kill application_XXXX_YY
  • echo “stop” | ./bin/yarn-session.sh -id application_XXXXX_XXX

作者 admin

张宴银,大数据开发工程师

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注