Sökning: "distribuerade beräkningar"

Visar resultat 1 - 5 av 20 uppsatser innehållade orden distribuerade beräkningar.

  1. 1. The state of WebAssembly in distributed systems : With a focus on Rust and Arc-Lang

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Theodor-Andrei Moise; [2023]
    Nyckelord :WebAssembly; Wasmer; Wasm; Rust; Arc-Lang; Distributed Systems; Continuous Deep Analytics; Docker containers; Performance benchmarking; WebAssembly; Wasmer; Wasm; Rust; Arc-Lang; Distributed Systems; Continuous Deep Analytics; Docker containers; Performance benchmarking;

    Sammanfattning : With the current developments in modern web browsers, WebAssembly has been a rising trend over the last four years. Aimed at replacing bits of JavaScript functionality, it attempts to bring extra features to achieve portability and sandboxing through virtualisation. LÄS MER

  2. 2. Distribuerade beräkningar med Kubernetes : Användning av Raspberry Pi och Kubernetes för distribuerade matematiska uträkningar

    Kandidat-uppsats, Mittuniversitetet/Institutionen för data- och elektroteknik (2023-)

    Författare :Abdirahman Mahamud; [2023]
    Nyckelord :Mathematical calculation; machine learning; cost efficiency; scalability; IoT devices; Container technology; theoretical research; system design; implementation; Matematiska uträkning; maskininlärning; kostnadseffektivitet; skalbarhet; IoT-enheter; Containertekniker; teoretisk forskning; systemdesign; implementation och Python;

    Sammanfattning : Under de senaste åren har stora datamängder blivit allt vanligare för beslutsfattande och analys. Maskininlärning och matematiska beräkningar är två avgörande metoder som används för detta. Dessa beräkningar kan dock vara tidskrävande, och de kräver högpresterande datorer som är utmanande att skala upp. LÄS MER

  3. 3. Minimum Cost Distributed Computing using Sparse Matrix Factorization

    Master-uppsats, KTH/Optimeringslära och systemteori

    Författare :Seif Hussein; [2023]
    Nyckelord :Applied mathematics; optimization; convex optimization; matrix factorization; sparse matrix factorization; distributed computing; linearly separable distributed computing; ADMM; alternating direction method of multipliers; tillämpad matematik; optimering; konvex optimering; matrisfaktorisering; gles matrisfaktorisering; distribuerade beräkningar; admm; alternating direction method of multipliers;

    Sammanfattning : Distributed computing is an approach where computationally heavy problems are broken down into more manageable sub-tasks, which can then be distributed across a number of different computers or servers, allowing for increased efficiency through parallelization. This thesis explores an established distributed computing setting, in which the computationally heavy task involves a number of users requesting a linearly separable function to be computed across several servers. LÄS MER

  4. 4. Deep Multiple Description Coding for Semantic Communication : Theory and Practice

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Martin Lindström; [2022]
    Nyckelord :Deep Learning; Split Computing; Multiple Description Coding; Semantic Communication; Internet of Things; Image Classification; Djupinlärning; distribuerade beräkningar; distribuerad kodning; semantisk kommunikation; sakernas internet; Internet of Things; bildklassificering;

    Sammanfattning : With the era of wirelessly connected Internet of Things (IoT) devices on the horizon, eective data processing algorithms for IoT devices are of increasing importance. IoT devices often have limited power and computational resources, making data processing on the device unfeasible. LÄS MER

  5. 5. Transfer learning techniques in time series analysis

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Robinson Sablons de Gélis; [2021]
    Nyckelord :Deep learning; Time series; Transfer learning; Self-supervised learning; Domain adaptation; Djupinlärning; tidsserier; överföringsinlärning; självövervakad inlärning; domänanpassning;

    Sammanfattning : Deep learning works best with vast andd well-distributed data collections. However, collecting and annotating large data sets can be very time-consuming and expensive. Moreover, deep learning is specific to domain knowledge, even with data and computation. E. LÄS MER