A continuación aparece una instantánea de la página web tal y como aparecía en 23/5/2024 (la última vez que nuestro rastreador la visitó). Esta es la versión de la página que se usó para la clasificación de los resultados de búsqueda. Puede que la página haya cambiado desde la última vez que la guardamos en caché. Para ver lo que puede haber cambiado (sin la información destacada), ve a la página actual.
Bing no se hace responsable del contenido de esta página.
2 回答
average_loss
和loss
之间的区别在于,一个减少了批次损失的 SUM ,而另一个减少了 MEAN 相同的损失 . 因此,该比率恰好是input_fn
的batch_size
参数 . 如果你传递batch_size=1
,你应该看到它们相等 .实际报告的张量取决于
tf.Estimator
的特定类型,但它们非常相似,here's the source code用于回归头(对应于tf.DNNRegressor
):如您所见,它们是从相同的
unweighted_loss
和weights
张量计算出来的 . 将相同的值报告给tensorboard摘要 .实际比率恰好是
4.0
,它对应于批量大小 .在训练网络时,通常会批量输入输入 .
在您所指的example中,批量大小为
4
,因此损失是整批损失的总和,而平均损失是整批损失的平均值 .