National Repository of Grey Literature 2 records found  Search took 0.00 seconds. 
Application for Guitar Sound Separation from Music Recording
Holková, Natália ; Rohdin, Johan Andréas (referee) ; Mošner, Ladislav (advisor)
Cieľom tejto práce bolo implementovať model na separáciu gitarového zvuku z nahrávky a použiť ho v praktickej aplikácii. Bolo nutné manuálne vytvoriť vlastný trénovací dataset z remixov piesní a upraviť existujúci MedleyDB dataset pre naše účely. Ako základ neurónovej siete sme si vybrali Demucs architektúru, ktorú sme od základu učili rozdeľovať audio súbory na celkovo päť samostatných nahrávok obsahujúcich bicie, basgitaru, vokály, gitaru a zvyšné nástroje. Celkovo sme na MetaCentre natrénovali päť rôznych modelov, ktoré boli objektívne aj subjektívne vyhodnotené. Implementovaná aplikácia slúži ako hudobný prehrávač a zároveň výučbový nástroj. Hlavnou funkcionalitou je, že umožňuje používateľovi počúvať izolovaný nástroj, napríklad gitaru, a vďaka tomu sa ľahšie učia piesne podľa sluchu. Aplikácia bola podrobená užívateľskému testovaniu a zistené poznatky budú využité pri ďalšom vývoji.
Music Source Separation
Holík, Viliam ; Veselý, Karel (referee) ; Mošner, Ladislav (advisor)
Neural networks are used for the problem of music source separation from recordings. One such network is Conv-TasNet. The aim of the work is to experiment with the already existing implementation of this network for the purpose of potential improvement. The models were trained on the MUSDB18 dataset. It was successively experimented with the change of the network structure, transforming signals from the time domain to the frequency domain for the purpose of calculating the loss function, replacing different loss functions with the original one, finding the optimal learning rate for each loss function and gradually decreasing the learning rate during the learning process. The best experiments according to the SDR metric were training with loss functions L1 and logarithmic L2 in the time domain with a higher initial learning rate with its gradual decrease during the learning process. In a relative comparison of the best models to the baseline, it is more than 2.5% improvement.

Interested in being notified about new results for this query?
Subscribe to the RSS feed.