A Literature Study Concerning Generalization Error Bounds for Neural Networks via Rademacher Complexity
Detta är en Master-uppsats från Umeå universitet/Institutionen för matematik och matematisk statistik
Sammanfattning: In this essay some fundamental results from the theory of machine learning and neural networks are presented, with the goal of finally discussing bounds on the generalization error of neural networks, via Rademacher complexity.
HÄR KAN DU HÄMTA UPPSATSEN I FULLTEXT. (följ länken till nästa sida)