• <small id='HiT1G'></small><noframes id='HiT1G'>

    <tfoot id='HiT1G'></tfoot>
        <bdo id='HiT1G'></bdo><ul id='HiT1G'></ul>
      <legend id='HiT1G'><style id='HiT1G'><dir id='HiT1G'><q id='HiT1G'></q></dir></style></legend>
      <i id='HiT1G'><tr id='HiT1G'><dt id='HiT1G'><q id='HiT1G'><span id='HiT1G'><b id='HiT1G'><form id='HiT1G'><ins id='HiT1G'></ins><ul id='HiT1G'></ul><sub id='HiT1G'></sub></form><legend id='HiT1G'></legend><bdo id='HiT1G'><pre id='HiT1G'><center id='HiT1G'></center></pre></bdo></b><th id='HiT1G'></th></span></q></dt></tr></i><div id='HiT1G'><tfoot id='HiT1G'></tfoot><dl id='HiT1G'><fieldset id='HiT1G'></fieldset></dl></div>

        Keras 可以预取 tensorflow Dataset 之类的数据吗?

        Could Keras prefetch data like tensorflow Dataset?(Keras 可以预取 tensorflow Dataset 之类的数据吗?)
        • <small id='qyE3g'></small><noframes id='qyE3g'>

        • <i id='qyE3g'><tr id='qyE3g'><dt id='qyE3g'><q id='qyE3g'><span id='qyE3g'><b id='qyE3g'><form id='qyE3g'><ins id='qyE3g'></ins><ul id='qyE3g'></ul><sub id='qyE3g'></sub></form><legend id='qyE3g'></legend><bdo id='qyE3g'><pre id='qyE3g'><center id='qyE3g'></center></pre></bdo></b><th id='qyE3g'></th></span></q></dt></tr></i><div id='qyE3g'><tfoot id='qyE3g'></tfoot><dl id='qyE3g'><fieldset id='qyE3g'></fieldset></dl></div>
            <tfoot id='qyE3g'></tfoot>
          1. <legend id='qyE3g'><style id='qyE3g'><dir id='qyE3g'><q id='qyE3g'></q></dir></style></legend>

                • <bdo id='qyE3g'></bdo><ul id='qyE3g'></ul>

                    <tbody id='qyE3g'></tbody>
                  本文介绍了Keras 可以预取 tensorflow Dataset 之类的数据吗?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着跟版网的小编来一起学习吧!

                  问题描述

                  在 TensorFlow 的 Dataset API 中,我们可以使用 dataset.prefetch(buffer_size=xxx) 来预加载其他批次的数据,而 GPU 正在处理当前批次的数据,因此,我可以充分利用 GPU.

                  In TensorFlow's Dataset API, we can use dataset.prefetch(buffer_size=xxx) to preload other batches' data while GPU is processing the current batch's data, therefore, I can make full use of GPU.

                  我打算使用 Keras,想知道 keras 是否有类似的 API 让我充分利用 GPU,而不是串行执行:读取批处理 0->处理批处理 0->读取批次 1-> 处理批次 1-> ...

                  I'm going to use Keras, and wonder if keras has a similar API for me to make full use of GPU, instead of serial execution: read batch 0->process batch 0->read batch 1-> process batch 1-> ...

                  我简要浏览了 keras API,没有看到预取的描述.

                  I briefly looked through the keras API and did not see a description of the prefetch.

                  推荐答案

                  如果调用 fit_generatorworkers > 1,使用_multiprocessing=True,它将预取 queue_size 个批次.

                  If you call fit_generator with workers > 1, use_multiprocessing=True, it will prefetch queue_size batches.

                  来自文档:max_queue_size:整数.生成器队列的最大大小.如果未指定,max_queue_size 将默认为 10.

                  From docs: max_queue_size: Integer. Maximum size for the generator queue. If unspecified, max_queue_size will default to 10.

                  这篇关于Keras 可以预取 tensorflow Dataset 之类的数据吗?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持跟版网!

                  本站部分内容来源互联网,如果有图片或者内容侵犯了您的权益,请联系我们,我们会在确认后第一时间进行删除!

                  相关文档推荐

                  groupby multiple coords along a single dimension in xarray(在xarray中按单个维度的多个坐标分组)
                  Group by and Sum in Pandas without losing columns(Pandas中的GROUP BY AND SUM不丢失列)
                  Group by + New Column + Grab value former row based on conditionals(GROUP BY+新列+基于条件的前一行抓取值)
                  Groupby and interpolate in Pandas(PANDA中的Groupby算法和插值算法)
                  Pandas - Group Rows based on a column and replace NaN with non-null values(PANAS-基于列对行进行分组,并将NaN替换为非空值)
                  Grouping pandas DataFrame by 10 minute intervals(按10分钟间隔对 pandas 数据帧进行分组)
                    <tbody id='0fZJ5'></tbody>

                  <small id='0fZJ5'></small><noframes id='0fZJ5'>

                  <tfoot id='0fZJ5'></tfoot>
                          <bdo id='0fZJ5'></bdo><ul id='0fZJ5'></ul>
                          <i id='0fZJ5'><tr id='0fZJ5'><dt id='0fZJ5'><q id='0fZJ5'><span id='0fZJ5'><b id='0fZJ5'><form id='0fZJ5'><ins id='0fZJ5'></ins><ul id='0fZJ5'></ul><sub id='0fZJ5'></sub></form><legend id='0fZJ5'></legend><bdo id='0fZJ5'><pre id='0fZJ5'><center id='0fZJ5'></center></pre></bdo></b><th id='0fZJ5'></th></span></q></dt></tr></i><div id='0fZJ5'><tfoot id='0fZJ5'></tfoot><dl id='0fZJ5'><fieldset id='0fZJ5'></fieldset></dl></div>
                          <legend id='0fZJ5'><style id='0fZJ5'><dir id='0fZJ5'><q id='0fZJ5'></q></dir></style></legend>