我目前正在评估Google Cloud Dataflow。根据留档,每个Cloud Platform项目最多可以运行25个并发Dataflow作业。
。
这似乎很低。我可以看到运行100个中小型作业的很大价值,能够支持并行部署、测试和模块化管道(许多小型作业似乎更容易更新/升级,即使Dataflow对就地管道升级有一些支持)。
这个限制可以通过某种方式增加吗,就像许多配额可以GCP一样?解决这个限制的常见做法是什么?
是的,你可以要求为你的项目增加限额。你能写信给dataflow-feedback@google.com,给你的项目ID吗?