主要内容

groupBy

类: matlab.compiler.mlspark.RDD
命名空间: matlab.compiler.mlspark

返回分组项目的 RDD

语法

result = groupBy(obj,func,numPartitions)

说明

result = groupBy(obj,func,numPartitions) 根据由 func 指示的用户指定条件对 obj 的元素进行分组。numPartitions 指定要在结果 RDD 中创建的分区数。

输入参数

全部展开

输入 RDD,指定为 RDD 对象。

执行分组的函数,指定为函数句柄。

数据类型: function_handle

要创建的分区数,指定为标量值。

数据类型: double

输出参量

全部展开

包含输入 RDD 的分组元素的流水线 RDD,以 RDD 对象形式返回。

示例

全部展开

根据用户指定的条件对 RDD 的元素进行分组。

%% Connect to Spark
sparkProp = containers.Map({'spark.executor.cores'}, {'1'});
conf = matlab.compiler.mlspark.SparkConf('AppName','myApp', ...
                        'Master','local[1]','SparkProperties',sparkProp);
sc = matlab.compiler.mlspark.SparkContext(conf);

%% groupBy
inRDD = sc.parallelize({1,2,3,4,5});
outRDD = inRDD.groupBy(@(x)(mod(x,2))).collect(); % {{0,{2,4}},{1,{1,3,5}

版本历史记录

在 R2016b 中推出

另请参阅

|