基于 Spring Batch 和 XXL-Job 的批处理任务实现

发布于:2025-07-23 ⋅ 阅读:(11) ⋅ 点赞:(0)

springbatch springinteger批处理作业

1 添加依赖

<dependency>
    <groupId>org.springframework.batch</groupId>
    <artifactId>spring - batch - integration</artifactId>
    <version>你的 Spring Batch 版本</version>
</dependency>
<!-- 通常还需搭配 Spring Batch 核心、Spring Integration 相关基础依赖,比如 -->
<dependency>
    <groupId>org.springframework.batch</groupId>
    <artifactId>spring - batch - core</artifactId>
    <version>你的 Spring Batch 版本</version>
</dependency>
<dependency>
    <groupId>org.springframework.integration</groupId>
    <artifactId>spring - integration - core</artifactId>
    <version>你的 Spring Integration 版本</version>
</dependency>

spring - batch - integration 依赖:它能帮你将 Spring Batch(批处理框架 )与 Spring Integration(企业集成模式框架 )结合,实现批处理作业和外部系统(如消息队列 )交互。

2 核心概念

spring - batch - integration 主要用于:
(1)触发批处理作业:通过 Spring Integration 的消息(如从消息队列获取消息 )
(2)触发 Spring Batch 作业执行,实现事件驱动的批处理。
作业结果交互:把 Spring Batch 作业执行结果(成功、失败、输出数据等 )通过 Spring Integration 发送到其他系统(如发消息通知监控平台 )。

关键组件和流程:
(1)JobLaunchingGateway:作为网关,接收消息(比如消息里包含作业参数 ),触发 Spring Batch 作业启动。
(2)JobExecutionEvent:作业执行过程中产生的事件(开始、结束、失败等 ),可通过 Spring Integration 通道传递,用于监听和后续处理。
(3)消息通道(Channel ):Spring Integration 里传递消息的通道,连接不同组件,像把触发作业的消息传到 JobLaunchingGateway,把作业事件消息传到监听器。

3 代码示例

3.1 包含以下几个核心部分

  • job定义:ptbTBJob() 定义了一个完整的批处理任务
  • Step 步骤:step01() 定义了任务的具体处理步骤,包括读取、处理、写入
  • 数据读取:multiResourceItemReader() 读取数据(通常是文件)
  • 数据写入:zjtbWriter() 处理并写入数据
  • 任务监听:PtbTBJobListener 监控任务执行前后的状态
  • 调度触发:通过 XXL-Job 定时调用这个批处理任务
    @Configuration
    @Slf4j
    @EnableBatchProcessing
    public class PtbTBBatchConfig {
        
@Bean
    public Job ptbTBJob() {
        // 通过jobBuilderFactory构建一个Job,get方法参数为Job的name
        return jobBuilderFactory.get("ptbTBJob")
                .incrementer(new RunIdIncrementer())
                .start(step01())
                .listener(ptbTBJobListener())
                .build();
    }

        @Bean
        public Step step01() {
            return stepBuilderFactory.get("step01")
                    .<PrpZjtbFirstdata, PrpZjtbFirstdata>chunk(5000)
                    .reader(multiResourceItemReader(""))
//                .processor(itemProcessor1())   这里注释掉了 processor,可能在 writer 中直接处理
                    .writer(zjtbWriter())
                    .build();
        }
	//  创建监听
	@Bean
    public PtbTBJobListener ptbTBJobListener() {
        return new PtbTBJobListener();
    }
        
    }

调度触发:通过 XXL-Job 定时调用这个批处理任务:

  • 监听类
@Slf4j
public class PtbTBJobListener implements JobExecutionListener {   
    @Override
    public void beforeJob(JobExecution jobExecution) { 
                String date = jobExecution.getJobParameters().getString("date");
       //  判断文件是否存在

          // SFTP文件下载流程开始

    }
    	@Override
    public void afterJob(JobExecution jobExecution) {
        String date = jobExecution.getJobParameters().getString("date");
    }
    
  }

@Slf4j
@Component
public class XxlJobFileReportHandler {  

// 引入声明的job的实例
@Autowired
    @Qualifier("ptbTBJob")
    private Job ptbTBJob;
    
/**
     * zjTbFileReportHandlerTiming 定时 T-1 拉取**日结文件,并入表
     */
    @XxlJob("zjTbFileReportHandlerTiming")
    public void zjTbFileReportHandlerTiming() {
            StopWatch stopWatch = new StopWatch();
            stopWatch.start("Finished executing " + ZFTB_LOG_FLAG_TIMING + "zjTbFileReportHandlerTiming " + LocalDateTime.now().format(DATE_FORMATTER_YYYY_MM_DD) + " took ");
            List<RulProjectConfig> rulProjectConfigListFailed = new ArrayList<>();
            try {
                log.info(ZFTB_LOG_FLAG_TIMING + "zjTbFileReportHandlerTiming===>日期:{}", LocalDateTime.now().format(DATE_FORMATTER_YYYY_MM_DD));
                String date = LocalDate.now().minusDays(1).format(DATE_FORMATTER_YYYYMMDD);
                //拉取日结文件
                fileReportJob("zjTbFileReportHandlerTiming",date,ptbTBJob);
                log.info(ZFTB_LOG_FLAG_TIMING + "zjTbFileReportHandlerTiming结束执行===>日期:{}, 异常项目信息集合为:{}", LocalDateTime.now().format(DATE_FORMATTER_YYYY_MM_DD), rulProjectConfigListFailed.stream().map(RulProjectConfig::toLogString).collect(Collectors.toList()));
            } catch (Exception e) {
                log.error(ZFTB_LOG_FLAG_TIMING + "zjTbFileReportHandlerTiming执行异常===>日期:{}", LocalDateTime.now().format(DATE_FORMATTER_YYYY_MM_DD), e);
                XxlJobHelper.log(ZFTB_LOG_FLAG_TIMING + "zjTbFileReportHandlerTiming执行异常===>日期:{}, 异常为:{}", LocalDateTime.now().format(DATE_FORMATTER_YYYY_MM_DD), e.getMessage());
                XxlJobHelper.handleFail(ZFTB_LOG_FLAG_TIMING + "zjTbFileReportHandlerTiming执行异常===>异常为: " + e.getMessage());
            } finally {
                stopWatch.stop();
                log.info("{}{}ms", stopWatch.getLastTaskName(), stopWatch.getLastTaskTimeMillis());
            }
    }

/**
     * 日结文件处理
     *
     * @param handler       handler名称
     * @param date                       日期
     */
    private void fileReportJob(String handler,String date,Job job) throws Exception {
        //拉取日结文件
        JobParameters jobParameters = new JobParametersBuilder(jobExplorer)
//               .getNextJobParameters(job)//生产需要注掉 因为自动生成的不可靠
//                .addString("fileName", name)
                .addString("date", date)		// 日期能和业务时间关联起来 方便查询
                .toJobParameters();

        //启动job
        JobExecution jobExecution = launcher.run(job, jobParameters);
        log.info("执行状态"+jobExecution.getExitStatus());
        log.info(handler+"执行完成===>日期:{}, 执行状态{}, 参数日期{}", LocalDateTime.now().format(DATE_FORMATTER_YYYY_MM_DD), jobExecution.getExitStatus(), date);
    }
    
 }
  • 参数传递:将日期参数date传入 Job

  • 生产环境中,通常需要手动构建JobParameters,确保参数可控且与业务关联,例如:
    .addString(“fileName”, name)
    .addString(“date”, date)
    .toJobParameters();

  • 自动生成实例id代码

 // 2. 调用getNextJobParameters,传入目标作业,自动生成唯一参数
        JobParameters jobParameters = parametersBuilder.getNextJobParameters(myBatchJob);

        // 3. 启动作业(使用自动生成的参数)
        jobLauncher.run(myBatchJob, jobParameters);

3.2 任务启动:

  • 先执行PtbTBJobListener的beforeJob()方法
  • 执行step01步骤:
  • 读取数据:multiResourceItemReader读取文件
  • 处理数据:这里注释掉了 processor,可能在 writer 中直接处理
  • 写入数据:zjtbWriter批量写入,每批 5000 条
  • 执行PtbTBJobListener的afterJob()方法

3.3 执行step01步骤 读取数据

@Slf4j
@EnableBatchProcessing
public class PtbTBBatchConfig {   

		@Bean
    @StepScope
    public ExtendedMultiResourceItemReader<PrpZjtbFirstdata> multiResourceItemReader(@Value("#{jobParameters['date']}") String date) {
        log.info("date->" + date);
        ExtendedMultiResourceItemReader<PrpZjtbFirstdata> resourceItemReader = new ExtendedMultiResourceItemReader<>();
        //测试
ExtendedMultiResourceItemReader<PrpZjtbFirstdata> resourceItemReader = new ExtendedMultiResourceItemReader<>();
        return resourceItemReader;

/** 
*  写操作  里面也进行了处理
*
*/
@Bean
    @StepScope
    public ItemWriter<PrpZjtbFirstdata> zjtbWriter() {
        return new ItemWriter<PrpZjtbFirstdata>() {
            @Override
            public void write(List<? extends PrpZjtbFirstdata> items) throws Exception {    
                                         log.info("重复数量:" + firstErrorCount);
                //重复数量+入库数量总数
                Long size = firstErrorCount + Long.parseLong(String.valueOf(i));
                log.info("成功入库数量:" + i);
                log.info("总数量:" + size);
    }
  }
}
}
}

4 思考Spring Batch 与 XXL-Job 结合使用,而不是直接在 XXL-Job 的逻辑层编写所有代码

4.1 区别

XXL-Job:专注于任务调度和触发
Spring Batch:专注于批处理逻辑的实现

  • 直接编写的问题:
    如果直接在 XXL-Job 中编写批处理逻辑,会导致调度框架和业务逻辑耦合代码会变得难以维护和扩展
  • 实际应用场景:
    当批处理逻辑变得复杂时(如需要重试、跳过错误、分区处理等)
    当需要监控和追踪批处理任务的执行状态时
    强大的批处理功能支持
4.1.1 Spring Batch 提供的关键功能:
  • 重试机制:自动处理临时错误
@Bean
public Step step() {
    return stepBuilderFactory.get("step")
            .<Input, Output>chunk(1000)
            .faultTolerant()
            .retryLimit(3)
            .retry(Exception.class)
            .reader(reader())
            .writer(writer())
            .build();
}
``
  • 跳过策略:跳过特定错误继续处理
.faultTolerant()
.skipLimit(10)
.skip(Exception.class)
  • 分区处理:并行处理大量数据
@Bean
public Step partitionStep() {
    return stepBuilderFactory.get("partitionStep")
            .partitioner("workerStep", partitioner())
            .step(workerStep())
            .gridSize(10)
            .build();
}
  • 流程控制:复杂的作业流程定义
@Bean
public Job job() {
    return jobBuilderFactory.get("job")
            .start(step1())
            .on("COMPLETED").to(step2())
            .from(step2()).on("*").to(step3())
            .end()
            .build();
}
  • 完善的监控和错误处理
    Spring Batch 提供的监控功能:
    JobRepository:记录作业执行历史
@Autowired
private JobExplorer jobExplorer;

public void listJobExecutions() {
    List<JobExecution> executions = jobExplorer.findJobExecutions(jobInstance);
    // 分析执行历史
}
  • 执行上下文:在步骤间共享数据

ExecutionContext stepExecutionContext = stepExecution.getExecutionContext();
stepExecutionContext.put(“key”, value);

  • 错误处理:灵活的错误处理策略
    java
    @Bean
    public Step errorHandlingStep() {
    return stepBuilderFactory.get(“errorHandlingStep”)
    .<Input, Output>chunk(1000)
    .faultTolerant()
    .skipPolicy(new CustomSkipPolicy())
    .listener(new StepExecutionListener() {
    @Override
    public ExitStatus afterStep(StepExecution stepExecution) {
    // 自定义错误处理逻辑
    return null;
    }
    })
    .reader(reader())
    .writer(writer())
    .build();
    }

网站公告

今日签到

点亮在社区的每一天
去签到