Java常用API之Encoders类解读

发布于:2024-04-03 ⋅ 阅读:(159) ⋅ 点赞:(0)

写在开头:本文用于作者学习Java常用API

我将官方文档中Encoders类中所有API全测了一遍并打印了结果,日拱一卒,常看常新

在Spark中,Encoders类提供了一些静态方法用于创建不同数据类型的编码器。

首先,我遇到这样一个问题,就是:

Encoder<String> string = org.apache.spark.sql.Encoders.STRING();标黄的这个包必须得加,如果我不加,自动导包导得是 import org.apache.spark.network.protocol.Encoders;这个包

但是我需要org.apache.spark.sql.Encoders这个包的这个类,所以加了完整的类路径。下面是Encoders的API介绍

1. Encoders.STRING()

// 创建一个String类型的编码器

@Test
    // 创建一个String类型的编码器
    // 1. Encoders.STRING()
    public void test_STRING(){
        Encoder<String> string = org.apache.spark.sql.Encoders.STRING();
        System.out.println(string);//class[value[0]: string]
        System.out.println(string.schema());//StructType(StructField(value,StringType,true))
    }

2. Encoders.INT()

// 创建一个Integer类型的编码器

@Test
    // 创建一个Integer类型的编码器
    // 2. Encoders.INT()
    public void test_INT(){
        Encoder<Integer> anInt = org.apache.spark.sql.Encoders.INT();
        System.out.println(anInt);//class[value[0]: int]
    }


3. Encoders.bean(MyClass.class)

// 创建一个自定义类的编码器,其中MyClass是自定义类的类名

@Test
    // 创建一个自定义类的编码器,其中MyClass是自定义类的类名
    // 3. Encoders.bean(MyClass.class)
    public void test_bean(){
        Encoder<MyClass> myClassEncoder = org.apache.spark.sql.Encoders.bean(MyClass.class);
        System.out.println(myClassEncoder.clsTag());//com.atguigu.sparksql.MyClass
        System.out.println(myClassEncoder.schema());//StructType()
    }

4. Encoders.kryo(MyClass.class)

// 创建一个使用Kryo序列化的自定义类的编码器

@Test
    // 创建一个使用Kryo序列化的自定义类的编码器
    // 4. Encoders.kryo(MyClass.class)
    public void test_kryo(){
        Encoder<MyClass> kryo = org.apache.spark.sql.Encoders.kryo(MyClass.class);
        System.out.println(kryo);//class[value[0]: binary]
        System.out.println(kryo.schema());//StructType(StructField(value,BinaryType,true))
        System.out.println(kryo.clsTag());//com.atguigu.sparksql.MyClass
    }

5. Encoders.tuple(Encoders.INT(), Encoders.STRING())

// 创建一个元组编码器,用于将多个数据类型组合成一个元组

@Test
    // 创建一个元组编码器,用于将多个数据类型组合成一个元组
    // 5. Encoders.tuple(Encoders.INT(), Encoders.STRING())
    public void test_tuple(){
        Encoder<Tuple2<Integer, String>> tupleEncoder = org.apache.spark.sql.Encoders.tuple(org.apache.spark.sql.Encoders.INT(), org.apache.spark.sql.Encoders.STRING());
        System.out.println(tupleEncoder);//class[_1[0]: int, _2[0]: string]
        System.out.println(tupleEncoder.clsTag());//scala.Tuple2
        System.out.println(tupleEncoder.schema());//StructType(StructField(_1,IntegerType,true),StructField(_2,StringType,true))
    }


网站公告

今日签到

点亮在社区的每一天
去签到