1
完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
摘要: 容器开启数据服务之旅系列(二):Kubernetes如何助力Spark大数据分析 (二):Kubernetes如何助力Spark大数据分析 概述 本文为大家介绍一种容器化的数据服务Spark + OSS on ACK,允许Spark分布式计算节点对阿里云OSS对象存储的直接访问。
容器开启数据服务之旅系列(二):Kubernetes如何助力Spark大数据分析 (二):Kubernetes如何助力Spark大数据分析 概述 本文为大家介绍一种容器化的数据服务Spark + OSS on ACK,允许Spark分布式计算节点对阿里云OSS对象存储的直接访问。借助阿里云Kubernetes容器服务与阿里云OSS存储资源的深度整合,允许Spark分布式内存计算,机器学习集群对云上的大数据直接进行分析和保存结果。 先决条件 你已经通过阿里云容器服务创建了一个Kubernetes集群,详细步骤参见创建Kubernetes集群 从容器服务控制台创建一个Spark OSS实例 使用三次点击来创建一个1 master + 3 worker 的Spark OSS的实例 1 登录 https://cs.console.aliyun.com/ 2 点击 “应用目录” 3 选择 "spark-oss", 点击 “参数” 
Worker: # set OSS access keyID and secret oss_access_key_id: 3.(可选)修改工作节点数目 Worker.Replicas: 3  4 点击 “部署” 5 点击 “Kubernetes 控制台”,查看部署实例 6 点击 服务, 查看外部端点, 点击URL访问Spark集群   7 测试Spark集群
spark-oss-online2-worker-57894f65d8-fmzjs 1/1 Running 0 44m spark-oss-online2-worker-57894f65d8-mbsc4 1/1 Running 0 44m spark-oss-online2-worker-57894f65d8-zhwr4 1/1 Running 0 44m kubectl exec -it spark-oss-online2-worker-57894f65d8-fmzjs -- /opt/spark/bin/spark-shell --master spark://spark-oss-online2-master:7077 1.粘贴下列代码,使用Spark测试OSS的读写性 // Save RDD to OSS bucketval stringRdd = sc.parallelize(Seq("Test Stringsn Test String2"))stringRdd.saveAsTextFile("oss://eric-new/testwrite12")// Read data from OSS bucketval lines = sc.textFile("oss://eric-new/testwrite12")lines.take(10).foreach(println) Test Strings Test String2 CLI 命令行操作 Setup keys and deploy spark cluster in one command export OSS_ID= kubectl get svc| grep ossmyspark-oss-master ClusterIP 172.19.9.111 原文链接 阅读更多干货好文,请关注扫描以下二维码: |
|
|
|
只有小组成员才能发言,加入小组>>
小黑屋| 手机版| Archiver| 德赢Vwin官网 ( 湘ICP备2023018690号 )
GMT+8, 2024-12-21 14:51 , Processed in 0.499604 second(s), Total 68, Slave 49 queries .
Powered by 德赢Vwin官网 网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
德赢Vwin官网 观察
版权所有 © 湖南华秋数字科技有限公司
德赢Vwin官网 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191 工商网监 湘ICP备2023018690号