关于谷歌云数据流:如何使用 Apache Beam 在 Python 中将有界 pcollection 转换为无界? | 珊瑚贝

How to transform bounded pcollection to unbounded in Python with Apache Beam?


我正在尝试在不使用太多内存的情况下转换存储在 GCS 中的几 TB 邮件日志。

按照指南中的建议,我为每个元素添加时间戳,将其拆分为滑动窗口,并在将其发送到 GroupByKey 和之后的 ParDo 解析器之前指定了一个(聚合)触发器。这应该可以,但仍然 GroupByKey 等待所有数据到达。为什么?

我也尝试过使用 Direct 和 Google Dataflow runner。

我错过了什么?

这是代码的要点:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
    known_args, pipeline_options = parse_args(sys.argv)
    pipeline = beam.Pipeline(options=pipeline_options)
    lines = pipeline | ‘read’ >> beam.io.ReadFromText(known_args.input)
    parsed_json = lines \\
      | ‘cut’ >> beam.Map(lambda x: x[39:])\\
      | ‘jsonify’ >> beam.Map(json_loads).with_outputs(‘invalid_input’, main=‘main’)

    keyed_lines = parsed_json[‘main’]\\
      | ‘key_filter’ >> beam.Filter(lambda x: u‘key’ in x)\\
      | ‘keyer’ >> beam.Map(lambda x: (x[‘key’], x))\\
      | ‘log_processed_rows’ >> beam.Map(log_processed_rows)

    window_trigger = trigger.DefaultTrigger()

    windowed_lines = keyed_lines\\
       | ‘timestamp’ >> beam.ParDo(AddTimestampDoFn())\\
       | ‘window’ >> beam.WindowInto(beam.window.SlidingWindows(size=3600+600, period=3600), trigger=window_trigger,
                                     accumulation_mode=trigger.AccumulationMode.DISCARDING) # 1 hour steps with 10 minutes of overlap

    results = windowed_lines \\
        | ‘groupbykey’ >> beam.GroupByKey()\\
        | ‘parse’ >> beam.ParDo(ParseSendingsDoFn()).with_outputs(‘too_few_rows’, ‘invalid_rows’, ‘missing_recipients’, main=‘main_valid’)  

    output = results[‘main_valid’] \\
        | ‘format’ >> beam.Map(output_format)\\
        | ‘write’ >> beam.io.WriteToText(known_args.output, file_name_suffix=“.gz”)

  • 现在我做到了,但会导致错误。很好的提示!我希望这很容易。
  • 嗯,什么都看不到,你设法让它工作了吗?如果您这样做了,那么发布答案将非常有帮助。我想知道它是 bounded 管道还是您传递了 –streaming,是否 DefaultTrigger 导致它等待完成,或者 WriteToText 可能在完成之前无法刷新
  • @Andor – 有什么更新吗?我处于类似情况,似乎无法触发窗口
  • 从那以后我就没有使用过 Beam/DF。 Spark 和普通 Python 最终更适合。


默认触发器要求整个数据集在处理之前都可用,这就是它等待所有数据到达的原因。

尝试使用数据驱动触发器或处理时间触发器。

此外,SlidingWindows 主要用于运行平均值,由于您只是添加时间戳,因此单个全局窗口可能是更好的选择。

编辑

关于窗口化,您可以有一个流式作业,它从内存中的数据创建一个 pcollection,并从 GCS 存储中获得一个侧面输入。

  • 正如我所写的,由于要处理的数据量很大,整个混乱是必要的。处理时间触发器真的会让它变得不可预测。那时 Python 还没有数据驱动的触发器。无论如何,从那时起我就去过 Crunch conf,其中 Beam 的一位作者声称无法做到这一点。这是因为每个源都有一个内部属性,无论它是否是流式传输的。如果它不是流式传输的,那么你就不能真正使用窗口化。


来源:https://www.codenong.com/51900500/

微信公众号
手机浏览(小程序)
0
分享到:
没有账号? 忘记密码?