Show simple item record

dc.contributor.authorMohammadi, Amir
dc.date.accessioned2018-08-03T11:00:26Z
dc.date.available2018-08-03T11:00:26Z
dc.date.issued2014-09
dc.identifier.urihttp://hdl.handle.net/10679/5925
dc.identifier.urihttps://tez.yok.gov.tr
dc.identifier.urihttp://discover.ozyegin.edu.tr/iii/encore/record/C__Rb1308594?lang=eng
dc.descriptionThesis (M.A.)--Özyeğin University, Graduate School of Sciences and Engineering, Department of Electrical and Electronics Engineering, September 2014.
dc.description.abstractStatistical speech synthesis (SSS) systems have the ability to adapt to a target speaker with a couple of minutes of adaptation data. Developing adaptation algorithms to further reduce the number of adaptation utterances to a few seconds of data can have substantial effect on the deployment of the technology in real life applications such as consumer electronics devices. The traditional way to achieve such rapid adaptation is the eigenvoice technique which works well in speech recognition but known to generate perceptual artifacts in statistical speech synthesis. Here, we propose three methods to both alleviate the quality problems of the baseline eigenvoice adaptation algorithm while allowing speaker adaptation with minimal data. Our first method is based on using a Bayesian eigenvoice approach for constraining the adaptation algorithm to move in realistic directions in the speaker space to reduce artifacts. Our second method is based on finding pre-trained reference speakers that are close to the target speaker and utilizing only those reference speaker models in a second eigenvoice adaptation iteration. Both techniques performed significantly better than the baseline eigenvoice method in the objective tests. Similarly, they both improved the speech quality in subjective tests compared to the baseline eigenvoice method. In the third method, tandem use of the proposed eigenvoice method with a state-of-the-art linear regression based adaptation technique is found to improve adaptation of excitation features.en_US
dc.description.abstractİstatistiksel ses sentezi (İSS) sistemleri birkaç dakikalık uyarlama verisi kullanarak hedef konuşmacının sesine uyarlama yapabilme yeteneğine sahiptir. Uyarlama için gereken konuşma sürelerini daha da aşağıya, birkaç saniyeye, düşürmek için geliştirilen uyarlama algoritmaları, teknolojinin tüketici elektroniği gibi gerçek hayattaki uygulamalarda yaygınlaşmasında önemli etkiye sahip olabilir. Bu tarz hızlı uyarlamayı başarmanın geleneksel yöntemi özses tekniğidir ki konuşma tanımada iyi çalışmaktadır fakat istatistiksel ses sentezinde algısal artifeksler ürettiği bilinmektedir. Burada, hem temel özses uyarlama algoritmasının kalite problemini giderebilecek hem de asgari veri kullanarak konuşmacı uyarlamayı sağlayacak üç yöntem önerdik. Birinci yöntemimiz uyarlama algoritmasını, artifeksleri azaltmak için konuşmacı uzayında realistik doğrultularda hareket ettirmek amacıyla sınırlamak için önerdiğimiz Bayes özses yaklaşımının kullanımına dayanan yöntemdir. İkinci metodumuz ise hedef konuşmacıya yakın, önceden eğitilmiş referans konuşmacıları bulmaya ve o referans konuşmacı modellerini ikinci bir özses uyarlama iterasyonunda kullanmaya dayanır. Her iki teknik de nesnel testlerde temel özses metodundan önemli ölçüde daha iyi sonuçlar verdi. Benzer şekilde, her ikisi de temel özses metoduyla kıyaslandığında öznel testlerde ses kalitesini arttırdı. Üçüncü metodda, önerilen özses metodu ile son teknoloji doğrusal regresyon tekniğinin ardışık kullanımının uyarım özniteliklerinin uyarlanmasını geliştirdiği görüldü.
dc.language.isoengen_US
dc.rightsrestrictedAccess
dc.titleSpeaker adaptation with minimal data in statistical speech synthesis systemsen_US
dc.title.alternativeİstatistiksel ses sentezi sistemlerinde çok az veri ile konuşmacıya uyarlanma yöntemleri
dc.typeMaster's thesisen_US
dc.contributor.advisorDemiroğlu, Cenk
dc.contributor.committeeMemberDemiroğlu, Cenk
dc.contributor.committeeMemberYaralıoğlu, Göksenin
dc.contributor.committeeMemberSözer, Hasan
dc.publicationstatusUnpublisheden_US
dc.contributor.departmentÖzyeğin University
dc.subject.keywordsElectrical and Electronics Engineeringen_US
dc.subject.keywordsText to speechen_US
dc.subject.keywordsStatistical speech synthesisen_US
dc.subject.keywordsSpeaker adaptationen_US
dc.subject.keywordsCluster adaptive trainingen_US
dc.subject.keywordsEigenvoice adaptationen_US
dc.subject.keywordsNearest neighboren_US
dc.contributor.ozugradstudentMohammadi, Amir
dc.contributor.authorMale1
dc.relation.publicationcategoryThesis - Institutional Graduate Student


Files in this item

FilesSizeFormatView

There are no files associated with this item.

This item appears in the following Collection(s)

  • Master's Theses
    This Collection covers master's thesis produced at Özyeğin University

Show simple item record


Share this page