rdd1.map(x => rdd2.values.count() * x)像这样的情况该如何避免

快来打我* 2024-03-25 10:31 8阅读 0赞

发表评论

表情:
评论列表 (有 0 条评论,8人围观)

还没有评论,来说两句吧...

相关阅读

    相关 RDD持久化-----rdd.cache()

    持久化 在Spark中,RDD采用惰性求值的机制,每次遇到行动操作,都会从头开始执行计算。每次调用行动操作,都会触发一次从头开始的计算,这对于迭代计算而言,代价是很大的,

    相关 RDD

    RDD是什么东西?在Spark中有什么作用?如何使用? 1、RDD是什么(1)为什么会产生RDD?传统的MapReduce虽然具有自动容错、平衡负载和可拓展性的优点,但是其最大

    相关 6-1、Spark RDD

    3、RDD 与Hadoop不同,Spark一开始就瞄准性能,将数据放在内存,在内存中计算。 用户将重复利用的数据缓存在内存中,提高下次的计算效率,因此Spark尤其适合

    相关 Spark之RDD实战2

    宽窄依赖、DAG RDD相关概念: 依赖 RDD和它依赖的父RDD(s)的关系有两种不同的类型,即窄依赖(narrow dependency)和宽依赖(wide de