【原创python开发淘宝优惠券搜索引擎】http://www.tbquan.cn(谢谢支持!)【原创python开发淘宝优惠券搜索引擎】http://www.tbquan.cn大数据项目实战系列博文开启,记得关注微信公众号哦~觉得不错,记得收藏!>>
站长原创网站:淘宝优惠券 | (已上线,谢谢支持) | 百度云搜索-淘宝圈 | 雷乾坤编程学习导航(待完善) | 攻城狮VIP影院(搜看各种vip) | 攻城狮VIP解析站(搜看各种vip) | it快速自学搜索

可代理办理各大银行信用卡赚取佣金,银行正规内部渠道(也可自己申请各大银行信用卡):http://www.buglib.cn/?id=5

解决办法: 先停止YARN服务,然后修改yarn-site.xml,增加如下内容

<property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>false</value>
        <description>Whether virtual memory limits will be enforced for containers</description>
    </property>
    <property>
        <name>yarn.nodemanager.vmem-pmem-ratio</name>
        <value>4</value>
        <description>Ratio between virtual memory to physical memory when setting memory limits for containers</description>
    </property>
将新的yarn-site.xml文件分发到其他Hadoop节点对应的目录下,最后在重新启动YARN。 再执行spark-shell --master yarn-client命令时,就不会报上面异常了。

更多

名字:

个人主页地址:

E-mail:

内容:

评论列表