Einige theoretische Überlegungen.
Das Buch "Probabilistisches Lernen" besagt, dass "Neural
Netzwerke mit einer verborgenen Schicht sind universell konsistent, wenn die Parameter sind
gut gewählt. "Sie bedeuten, dass die Fehlerrate mit der Größe des Trainingssatzes gegen unendlich gegen den Fehler des Bayes-Klassifikators konvergiert.
Das Buch "Maschinelles Lernen verstehen" gibt eine Schätzung der VC-Dimension der Klasse der Hypothesen von NN.Die Verwendung des Fundamental Theorem of Learning kann eine Vorstellung davon geben, wie groß ein Trainingssatz sein soll, um die gewünschte Genauigkeit zu erzielen.Normalerweise ist es riesig.
Keines dieser Ergebnisse bedeutet, dass die Genauigkeit besser ist, wenn Sie den Trainingssatz um das Zehnfache erhöhen.
Es bedeutet nur, dass die Ergebnisse letztendlich besser werden, wenn Sie Ihren Trainingssatz auf unbestimmte Zeit erhöhen.Aber dann sagen sie nicht, wie man die "gut gewählten" Parameter auswählt.
Ja, eine 10-fache Vergrößerung der Daten kann aus theoretischer Sicht zu schlechteren Ergebnissen führen.