A Literature Study Concerning Generalization Error Bounds for Neural Networks via Rademacher Complexity

Detta är en Master-uppsats från Umeå universitet/Institutionen för matematik och matematisk statistik

Sammanfattning: In this essay some fundamental results from the theory of machine learning and neural networks are presented, with the goal of finally discussing bounds on the generalization error of neural networks, via Rademacher complexity.

  HÄR KAN DU HÄMTA UPPSATSEN I FULLTEXT. (följ länken till nästa sida)