broadcast news segmentation using automatic speech recognition

42
أن أريد ي رق الزمندي من طا بيً ستمسكاة ... مبن فاطم ا أمانا يا ثم والده فاطم وبنيها من ــ الحسن أعني أباٌ تضى حيدر... والمر اBROADCAST NEWS SEGMENTATION USING AUTOMATIC SPEECH RECOGNITION SYSTEM COMBINATION WITH RESCORING AND NOUN UNIFICATION by ZAINAB ALI KHALAF Thesis submitted in fulfillment of the requirements for the degree of Doctor of Philosophy JULY 2015

Upload: hanga

Post on 13-Jan-2017

234 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: broadcast news segmentation using automatic speech recognition

i

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

BROADCAST NEWS SEGMENTATION USING

AUTOMATIC SPEECH RECOGNITION SYSTEM

COMBINATION WITH RESCORING AND NOUN

UNIFICATION

by

ZAINAB ALI KHALAF

Thesis submitted in fulfillment of the requirements

for the degree of

Doctor of Philosophy

JULY 2015

Page 2: broadcast news segmentation using automatic speech recognition

ii

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

1 DEDICATION

To my beloved Mother, for her prayers to me.

To the soul of my father, God bless his soul,

who encouraged me to be the best I can be, to have high expectations

and to fight hard for what I believe. He always provided me with best

opportunities in life. I feel he is always with me supporting and guiding.

To my great young brother

(Maher)

who passed away from this life early in June 18, 2008.

He was a role model for me

and

I will keep him in my heart forever.

Page 3: broadcast news segmentation using automatic speech recognition

iii

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

ACKNOWLEDGEMENTS

بسم هللا الرحمن الرحيم

In the name of Allah the most gracious the most merciful first and foremost, Praise

Allah, Lord of the worlds and prayers and peace be upon the master of messengers the Prophet

(PBUH) Mohammed, our leader in this life until the closing.

I would like to thank my thesis advisors Dr. Tan Tien Ping and Dr. Wong Li Pei for their

valuable suggestions, guidance and patience throughout the lengthy process of preparing this

thesis. I would also like to thank the thesis committee members, my research group colleagues

for the discussions on many issues. I would like also to thank the sponsors: TWAS-USM, and

my family, who provided financial support during the course of this research. In addition,

especial thanks my former advisor Dr. Cheah Yu-N, who has continued to support me

throughout the years. Lastly, I owe a huge debt of gratitude to my mother, my wonderful sisters,

brothers and my friends for all of their support.

Page 4: broadcast news segmentation using automatic speech recognition

iv

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

TABLE OF CONTENTS

ACKNOWLEDGEMENTS .......................................................................................................... ii

TABLE OF CONTENTS ..............................................................................................................iv

LIST OF TABLE ........................................................................................................................ viii

LIST OF FIGURES .......................................................................................................................ix

LIST OF ABBREVIATIONS ..................................................................................................... xii

ABSTRAK ................................................................................................................................... xiv

ABSTRACT ................................................................................................................................ xvii

CHAPTER 1: INTRODUCTION

1.1 Introduction .......................................................................................................................... 1

1.2 Problem Statement ............................................................................................................... 3

1.2.1 ASR Problems .............................................................................................................. 4

1.2.2 Topic Segmentation Problems ..................................................................................... 7

1.3 Research Questions .............................................................................................................. 7

1.4 Research Objectives............................................................................................................. 8

1.5 Scope of the Study ............................................................................................................... 8

1.6 Thesis Layout ....................................................................................................................... 9

CHAPTER 2 : THEORETICAL BACKGROUND

2.1 Introduction ........................................................................................................................ 11

2.2 Automatic Speech Recognition System ............................................................................ 15

2.2.1 Signal Processing Front-End ..................................................................................... 17

Page 5: broadcast news segmentation using automatic speech recognition

v

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

2.2.2 Decoder ...................................................................................................................... 19

2.2.3 Acoustic Model .......................................................................................................... 22

2.2.4 Pronunciation Model.................................................................................................. 23

2.2.5 Language Model ........................................................................................................ 24

2.2.6 Word Posterior Probability ........................................................................................ 28

2.2.7 Confidence Score ....................................................................................................... 30

2.2.8 Automatic Speech Recognition System Combination .............................................. 32

2.3 Topic Segmentation ........................................................................................................... 55

2.3.1 Preprocessing Stage ................................................................................................... 56

2.3.2 Term Representation .................................................................................................. 57

2.3.3 Dimensionality Reduction ......................................................................................... 60

2.3.4 Segmentation Algorithms .......................................................................................... 60

2.4 Discussion .......................................................................................................................... 81

CHAPTER 3: RESEARCH METHODOLOGY

3.1 Introduction ........................................................................................................................ 84

3.2 Proposed Broadcast News Segmentation System ........................................................... 84

3.3 Experimental Setup ............................................................................................................ 86

3.3.1 Experiment Setup for Automatic Speech Recognition ............................................. 86

3.3.2 Topic Segmentation Setup ......................................................................................... 87

3.4 Datasets .............................................................................................................................. 89

3.4.1 Speech Corpora .......................................................................................................... 90

3.4.2 Text Corpora .............................................................................................................. 91

3.5 Evaluation Metric .............................................................................................................. 92

3.6 Summary ............................................................................................................................ 96

Page 6: broadcast news segmentation using automatic speech recognition

vi

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

CHAPTER 4: PROPOSED BROADCAST NEWS SEGMENTATION APPROACHES

4.1 Introduction ........................................................................................................................ 97

4.2 Automatic Speech Recognition System Combination ...................................................... 99

4.2.1 Prior-decoding System Combination ...................................................................... 100

4.2.2 Post-Decoding Combination .................................................................................... 102

4.3 Topic Segmentation ......................................................................................................... 125

4.3.1 Noun Unification ..................................................................................................... 127

4.3.2 Segmentation Methods ............................................................................................ 131

4.4 Summary .......................................................................................................................... 139

CHAPTER 5: EXPERIMENTAL RESULTS

5.1 Introduction ...................................................................................................................... 140

5.2 Experimental Results for ASR Task ............................................................................... 140

5.2.1 ASR Validation ........................................................................................................ 141

5.2.2 Baseline Automatic Speech Recognition Result ..................................................... 142

5.2.3 Proposed System Results ......................................................................................... 145

5.2.4 Discussion ................................................................................................................ 150

5.3 Experimental Results for Topic Segmentation ............................................................... 153

5.3.1 Baseline Topic Segmentation Results ..................................................................... 153

5.3.2 Proposed System Results ......................................................................................... 157

5.3.3 Topic Segmentation Validation ............................................................................... 160

5.3.4 Discussion ................................................................................................................ 161

5.4 Summary .......................................................................................................................... 163

Page 7: broadcast news segmentation using automatic speech recognition

vii

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

CHAPTER 6: CONCLUSION AND FUTURE STUDIES

6.1 Main Conclusions ................................................................................................................ 165

6.2 Contributions ........................................................................................................................ 168

6.3 Limitations of the Study....................................................................................................... 169

6.4 Future Work ......................................................................................................................... 170

APPENDIX 1: MALAY PHONEMES ..................................................................................... 172

APPENDIX 2: CONFUSION MATRIX .................................................................................. 174

REFERENCES ........................................................................................................................... 177

Page 8: broadcast news segmentation using automatic speech recognition

viii

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

LIST OF TABLE

Table 2.1 Examples of lexical mappings from words to phonemes ........................................ 24

Table 2.2 Summary of existing combination ASR systems ..................................................... 53

Table 2.3 Example with 4 sentences ......................................................................................... 71

Table 2.4 TSM........................................................................................................................... 72

Table 2.5 Summary of existing approaches to story segmentation .......................................... 78

Table 3.1 Description of testing data ......................................................................................... 88

Table 3.2 The details of the MASS read speech corpus ........................................................... 90

Table 3.3 Summary of the MASS broadcast news test corpus used ........................................ 91

Table 4.1 An example of REF and HYP alignment ............................................................... 123

Table 4.2 An example of decoder errors ................................................................................ 127

Table 4.3 Noun unification approach ..................................................................................... 130

Table 5.1 Time rescoring performance with different weights .............................................. 146

Table 5.2 The baselines and the time rescoring system performances .................................. 146

Table 5.3 The details of the results ......................................................................................... 147

Table 5.4 The training dataset for confusion matrix and edit distance .................................. 149

Table 5.5 Baseline and the trigram-OOV rescoring system performances ............................ 150

Table 5.6 LSA performance .................................................................................................... 157

Table 5.7 The top five nouns that are unified and their frequency ......................................... 158

Table 5.8 All topic segmentation results ................................................................................ 162

Table (a) Grapheme-to-phoneme mapping rules ................................................................... 172

Table (b) Three highest phoneme confusions for vowels ...................................................... 175

Table (c) Three highest phoneme confusions for consonants ................................................ 175

Table (d) Three highest phoneme confusions for diphthongs................................................ 176

Page 9: broadcast news segmentation using automatic speech recognition

ix

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

LIST OF FIGURES

Figure 1.1 The typical SDR architecture ..................................................................................... 3

Figure 1.2 An example of ASR transcription .............................................................................. 5

Figure 2.1 A typical SDS system ............................................................................................... 11

Figure 2.2 An example of topic segmentation approach ........................................................... 12

Figure 2.3 An ASR Module (Tan, 2008) ................................................................................... 15

Figure 2.4 The decoding module................................................................................................ 17

Figure 2.5 Speech recognition as a search problem. .................................................................. 22

Figure 2.6 Example of a 3-best list ............................................................................................ 26

Figure 2.7 An example of word lattice....................................................................................... 27

Figure 2.8 An example of WCN ................................................................................................ 28

Figure 2.9 An ASR system combination ................................................................................... 32

Figure 2.10 A typical prior-decoding system combination ......................................................... 33

Figure 2.11 A typical post-decoding system combination .......................................................... 34

Figure 2.12 A typical during-decoding system combination ....................................................... 35

Figure 2.13 The feature-level combination .................................................................................. 36

Figure 2.14 The posterior-level combination ............................................................................... 37

Figure 2.15 The ROVER system architecture (Fiscus, 1997) ..................................................... 40

Figure 2.16 The WTN in ROVER framework ............................................................................. 41

Figure 2.17 The WTN in n-best ROVER framework .................................................................. 43

Figure 2.18 Expanded group in WTN .......................................................................................... 43

Figure 2.19 Example CN with word posteriors (P) ..................................................................... 46

Figure 2.20 A CNC of two systems, System1+System2............................................................... 47

Figure 2.21 System combination via search space integration .................................................... 49

Page 10: broadcast news segmentation using automatic speech recognition

x

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

Figure 2.22 General idea of topic segmentation .......................................................................... 55

Figure 2.23 Topic segmentation steps .......................................................................................... 56

Figure 2.24 Example computation of TF/IDF weights ................................................................ 59

Figure 2.25 A TextTiling algorithm ............................................................................................. 64

Figure 2.26 A TextTiling approach for pseudo-sentences within 20 words ............................... 65

Figure 2.27 LCsg system steps ..................................................................................................... 66

Figure 2.28 An example of DP segmentation .............................................................................. 67

Figure 2.29 SVD description ........................................................................................................ 71

Figure 3.1 An overview of the proposed framework ................................................................. 84

Figure 3.2 An example of the result of validation package for topic segmentation ................. 93

Figure 4.1 The language model interpolation approach .......................................................... 101

Figure 4.2 Time rescoring system ............................................................................................ 104

Figure 4.3 1-best lattice rescoring steps ................................................................................... 106

Figure 4.4 Language model score normalization (Ahmed, 2014) ........................................... 107

Figure 4.5 An example of the time rescoring system .............................................................. 108

Figure 4.6 The trigram-OOVrescoring system ........................................................................ 110

Figure 4.7 The details of the trigram-OOV rescoring system ................................................. 112

Figure 4.8 An example of decoder errors for OOV words ...................................................... 113

Figure 4.9 The trigram rescoring approach .............................................................................. 116

Figure 4.10 An example of the trigram rescoring stage ............................................................ 117

Figure 4.11 The details of the edit distance calculation ............................................................ 118

Figure 4.12 OOV rescoring approach ........................................................................................ 120

Figure 4.13 Sample of confusion matrix .................................................................................... 123

Figure 4.14 The edit distance calculation. ................................................................................. 125

Page 11: broadcast news segmentation using automatic speech recognition

xi

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

Figure 4.15 The nouns unification algorithm............................................................................. 129

Figure 4.16 The edit distance calculation .................................................................................. 130

Figure 4.17 Apriori algorithm steps ........................................................................................... 135

Figure 4.18 An example of the apriori algorithm ...................................................................... 136

Figure 5.1 An example of the alignment approach .................................................................. 141

Figure 5.2 An example of ROVER result of two ASR system hypotheses ............................ 151

Figure 5.3 WER reduction in the baseline and proposed systems ........................................... 152

Figure 5.4 An example of TextTiling result ............................................................................ 155

Figure (a) Distribution of Malay phonemes in the trained data and the testing data.............. 173

Page 12: broadcast news segmentation using automatic speech recognition

xii

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

LIST OF ABBREVIATIONS

AM Acoustic Model

ASR Automatic Speech Recognition

BAYCOM Bayesian Combination

CMU Carnegie Mellon University

CN Confusion Network

CNC Confusion Network Combination

CS Confidence Score

DP Dynamic Programming

DT Decision Trees

DTW Dynamic Time Warping

EM Expectation-Maximization

EPA Expected Phone Accuracy

FFT Fast Fourier Transform

GS Gold Standard

HMM Hidden Markov Model

IR Information Retrieval

LDA Latent Dirichlet Allocation

LE Laplacian Eigenmaps

LM Language Model

LPC Linear Predictive Coding

LPCC Linear Predictive Coding Cepstrum

LSA Latent Semantic Algorithm

LVCSR Large Vocabulary Continues Speech Recognition

Page 13: broadcast news segmentation using automatic speech recognition

xiii

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

MAP Maximum A Posteriori

MFC Mel-Frequency Cepstral

MFCC Mel-Frequency Cepstral Coefficients

MLE Maximum Likelihood Estimate

MLLR Maximum Likelihood Linear Regression

MLP Multi-Layer Perceptron

NIST National Institute of Standards and Technology

OOV Out-Of-Vocabulary

PCA Principal Component Analysis

PLP Perceptual Linear Prediction

PM Pronunciation Model

POS Part-Of-Speech tagger

ROVER Recognized Output Voting Error Reduction

SCTK Scoring Toolkit

SDR Spoken Document Retrieval

SPSS Statistical Package for Social Sciences

SVD Singular Value Decomposition

VSM Vector Space Model

WCN Word Confusion Network

WER Word Error Rate

WTN Word Transition Network

Page 14: broadcast news segmentation using automatic speech recognition

xiv

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

SEGMENTASI BERITA SIARAN MENGGUNAKAN PENDEKATAN GABUNGAN

SISTEM PENGECAMAN PERTUTURAN AUTOMATIK DENGAN PENILAIAN

SEMULA DAN PENYATU KATA NAMA

ABSTRAK

Siaran berita memaklumkan perkembangan terbaru, peristiwa dan isu-isu terkini yang

berlaku di dunia kepada penonton. Pada masa kini, berita yang disiarkan boleh diakses dengan

mudah atas talian. Peningkatan yang pesat dalam jumlah siaran berita daripada media massa

tradisional seperti radio, televisyen, dan televisyen kabel boleh dicapai menerusi Internet. Selain

itu, dengan adanya telefon bimbit dengan kamera yang baik, perkara ini telah membolehkan

pengguna untuk merakam video yang menarik dan dikongsi dengan semua orang. Kini, terdapat

keperluan terhadap sistem yang boleh mengakses dan mencari kandungan siaran berita dengan

berkesan dan cepat. Untuk membolehkan pencarian kandungan pertuturan dalam siaran berita,

kandungan pertuturan tersebut perlu terlebih dahulu ditukar kepada teks. Pemprosesan automatik

sumber siaran berita memerlukan suatu sistem pengecaman pertuturan automatic (PPA) untuk

menyahkod pertuturan ke dalam transkripsi teks bertulis.

Transkrip PPA biasanya ialah dokumen tidak berstruktur yang terdiri daripada

perkataan, tanpa pemformatan (iaitu tanda baca, dan huruf besar/kecil). Selain itu, sistem ASR

menghasilkan kesilapan yang banyak disebabkan oleh beberapa faktor yang mengurangkan

prestasi PPA. Oleh sebab itu, masalah-masalah ini boleh mengurangkan prestasi pemprosesan

peringkat tinggi seperti pencarian, perumusan dan penterjemahan. Sistem segmentasi dokumen

pertuturan (SDP) ialah sistem yang menyahkodkan pertuturan kepada transkrip dan seterusnya

membahagikannya kepada unit logikal sebelum membolehkan pemprosesan seterusnya seperti

pencarian, penyimpulan dan terjemahan dilakukan.

Page 15: broadcast news segmentation using automatic speech recognition

xv

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

Pentranskripan berita secara manual adalah terlalu mahal dan mengambil masa yang

lama. Oleh itu, tanpa sistem SDP, pengaksesan dan pemprosesan arkib audio akan terhad kepada

dokumen teks yang telah disalin secara manual dan dibahagikan oleh manusia.

Pendekatan penggabungan sistem PPA dicadangkan untuk mentranskripkan siaran berita

Melayu secara automatik. Pendekatan ini menggabungkan hipotesis yang dihasilkan oleh sistem

pengecaman pertuturan automatik selari untuk menghasilkan hipotesis yang lebih tepat. Setiap

sistem PPA menggunakan model bahasa yang berbeza, salah satu merupakan model domain

generik dan model yang lain ialah model domain khusus. Idea utama adalah untuk mengambil

kesempatan terhadap pengetahuan ASR yang berbeza untuk meningkatkan kejituan keputusan

penyahkodan ASR. Pendekatan yang dicadangkan dibandingkan dengan pendekatan gabungan

konvensional, pengurangan kesilapan pengundian output pengecaman (ROVER). Pendekatan

yang dicadangkan mengurangkan kesilapan penyahkodan daripada 34.5% kepada 30.6% dan

30.1%, dan pendekatan ini adalah lebih baik daripada pendekatan ROVER konvensional.

Tambahan pula, untuk mengenal pasti sempadan topik dalam transkrip PPA ialah satu

cabaran kerana kesilapan yang dijana daripada sistem PPA serta ketiadaan tanda bacaan dan

pemformatan. Oleh itu, pendekatan segmentasi topic tradisional (contohnya algoritma

TextTiling) tidak boleh menghasilkan sempadan topik yang baik dengan dokumen-dokumen

yang dihasilkan daripada sistem PPA. Bagi menangani kesilapan-kesilapan dalam penyahkodan

transkrip PPA yang boleh menyebabkan masalah yang ketara dalam padanan perkataan dan

hubungan saling berkait dalam segmentasi topik, dua pendekatan dicadangkan: penyatuan kata

nama dan pengubahsuaian pendekatan TextTiling. Penyatuan kata nama adalah berdasarkan

maklumat fonologi untuk mengenal pasti kata nama yang dan sebutan yang serupa,

menggabungkan kata nama dan kemudian digunakan untuk segmentasi topik. Pengubahsuaian

TextTiling adalah berdasarkan kepada algoritma apriori. Keputusan yang dikutip daripada

Page 16: broadcast news segmentation using automatic speech recognition

xvi

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

segmentasi topik menunjukkan bahawa penyatuan kata nama dan algoritma TextTiling yang

diubah suai memberikan prestasi yang lebih baik berbanding dengan algoritma TextTiling asal.

Pendekatan TextTiling yang diubahsuai dengan penyatuan kata nama mencapai F-ukuran 0.71;

sementara pendekatan tanpa penyatuan kata nama mencapai F-ukuran 0.62.

Page 17: broadcast news segmentation using automatic speech recognition

xvii

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

BROADCAST NEWS SEGMENTATION USING AUTOMATIC SPEECH

RECOGNITION SYSTEM COMBINATION WITH RESCORING AND NOUN

UNIFICATION

ABSTRACT

Broadcast news keeps viewers informed about the latest developments, events and

issues occurring in the world. Nowadays, broadcast news can be easily accessed online. There is

a rapid growth in the amount of news broadcasted from the traditional mass media such as radio,

television, and cable television that are made available on the Internet. Besides that, with the

availability of mobile phones with a good camera, it has allowed users to record interesting

videos and shared them with everyone. Now more than before, there is a need for systems

capable of accessing and searching the contents of the broadcast news effectively and quickly.

To allow the searching for the spoken contents in broadcast news, the spoken contents have to be

first converted to text. Automatic processing of broadcast news sources requires automatic

speech recognition (ASR) system in order to decode speech into a written text transcription.

Typical ASR transcription is an unstructured document that includes only words,

without further formatting (i.e. punctuations, and capitalization). Moreover, ASR system

produces substantial errors due to several factors that are degrading the ASR performance. Thus,

these problems reduce the performance of a high-level processing such as searching,

summarizing, and translation. Spoken document segmentation (SDS) is a system that decodes

broadcast news to transcription and then segments the transcription to the logical unit before

allows subsequent high-level processing to be carried out.

Manual news transcription and topic segmentation are too expensive and take a long

time. Hence, without an SDS system, access to audio archives and searches within them would

Page 18: broadcast news segmentation using automatic speech recognition

xviii

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

be restricted to the limited number of textual documents that have been manually transcribed and

segmented by humans. Multiple hypotheses are useful because the single best recognition output

still has numerous errors, even for state-of-the-art systems.

Two ASR system combination approaches are proposed for automatic transcribing

Malay broadcast news. These approaches combine the hypotheses produced by parallel

automatic speech recognition (ASR) systems. Each ASR system uses different language models,

one which is generic domain model and another is domain specific model. The main idea is to

take advantage of different ASR knowledge to improve ASR decoding result. The proposed

approaches are compared with a conventional combination approach, the recognizer output

voting error reduction (ROVER). The proposed approaches reduce the decoding error from

34.5% to 30.6% and 30.1, and these approaches are better than the conventional ROVER

approach.

Moreover, identifying the topic boundaries in ASR transcription is a challenge because

of the errors generating from ASR system as well as the absence of overt punctuation and

formatting. Thus, the traditional topic segmentation approaches (e.g. TextTiling algorithm)

cannot work properly with these documents that result from ASR system. To address the

decoding errors in ASR transcripts that can cause significant difficulties in word matching and

interlinked relationships in topic segmentation, two approaches are proposed: noun unification

and modified TextTiling approach. Noun unification is based on phonological information to

identify similarly pronounced nouns, unified the nouns and then in turn is used for topic

segmentation. A modified TextTiling text segmentation algorithm is based on an apriori

algorithm. The results collected from topic segmentation provide the evidence that noun

unification and the modified TextTiling algorithm give better performance compared to the

original TextTiling algorithm. The modified TextTiling with noun unification achieved an F-

measure of 0.71; without the noun unification, it achieved an F-measure of 0.62.

Page 19: broadcast news segmentation using automatic speech recognition

1

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

CHAPTER 1

INTRODUCTION

1.1 Introduction

Nowadays, multimedia data can be easily accessed online due to the rapid growth in

the amount of data from conventional mass media (e.g. radio, television and cable television)

available on the Internet. In addition, mobile phones with high-quality cameras and internet

facilities allow its users to record and share interesting videos. Therefore, there is an increased

need for systems capable of accessing and searching the contents of multimedia data

effectively and quickly. The search for specific multimedia content (speech, text, video, and

image data) is useful to find interesting information of implicit knowledge from multimedia

documents. However, multimedia analysis can be argued is still a challenging problem. To

allow the processing of speech content contained in online multimedia documents, it have to

be first converted to text. Spoken document segmentation (SDS) system is a system that

transcribes spoken files to texts and subsequently segments the transcription into logical units

before allowing processing applications to be performed such as searching, summarizing

(Christensen et al., 2005), and translation (Cho et al., 2012; Petiz et al., 2012). For example,

spoken document retrieval (SDR) achieves the functions of transcription, segmentation and

processing by combining spoken document segmentation system and information retrieval

system (Chelba et al., 2008; Bhatt et al., 2011).

The earliest work on SDR can be traced back to the Informedia project at Carnegie

Mellon University (CMU). The Informedia project focuses on the automated retrieval of

Page 20: broadcast news segmentation using automatic speech recognition

2

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

broadcast television news using various techniques that include speech recognition, natural

language processing, and image processing in order to improve search and discovery

performance in the video medium. The Informedia project allows the user to match the queries

to automatically transcribed speeches. However, the project applies only the most possible

decoding of an acoustic signal, which is selected from a wide range of hypotheses evaluated

during the ASR process. The researchers involved in the Informedia project concluded that n-

best ASR hypotheses seem most promising to improve information retrieval performance.

Nonetheless, words incorrectly identified may reduce matches with query terms, and

consequently decrease retrieval performance (Hauptmann et al., 1997; Kanade et al., 1998).

Since then, several related projects have adopted this framework, particularly the SDR system

of TREC (Text Retrieval Conference) evaluations (Hauptmann et al., 1997; Garofolo et al.,

1998 ; Chen et al., 2012).

TREC-SDR uses the broadcast news as a platform to test its performance. There are

550 hours of speech from the “Topic Detection and Tracking” phase 2 collections (TDT-2) of

broadcast news. These collections of broadcast news were compiled between 1998-1999 from

different sources, such as ABC, CNN and the Voice of America, and then manually segmented

into approximately 21,500 stories. The word error rate (WER) was 14.5% for the closed

caption-quality transcripts for video broadcasts and 7.5% for radio broadcasts (Garofolo et al.,

1999; Voorhees et al., 2000).For IR evaluation in TREC, two different types of the query

containing 50 topics are applied: single-sentence descriptions and keyword descriptions. Given

the large data set, only a subset of the files was manually transcribed. In addition, closed

captions were used as a reference (gold standard) for text-based retrieval. The major

observation from the SDR system of the TREC evaluations was that no marked degradation in

Page 21: broadcast news segmentation using automatic speech recognition

3

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

retrieval performance was observed when using ASR transcripts rather than approximate

manual transcripts (Garofolo et al., 2000; Voorhees et al., 2000). Fig. 1.1 shows the typical

SDR architecture.

1.2 Problem Statement

An SDS system consists of ASR system, and topic segmentation. ASR system

produces text transcripts of speech files, which are divided into coherent units using topic

segmentation algorithms. The units are processed afterward with standard information

ASR System

Transcription (textual

document)

Topic Segmentation

Query

representation

IR System

Indexing

Matching Retrieved

Documents

SDS System

Subtopics

Figure 1.1: The typical SDR architecture

Page 22: broadcast news segmentation using automatic speech recognition

4

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

retrieval algorithms adapted to this task. The intrinsic problems of the SDS system are

discussed in the following subsections.

1.2.1 ASR Problems

One of the foremost challenges facing a SDS system is the WER produced by ASR,

which can degrade the effectiveness of the SDS system. Fig. 1.2 shows a transcription decoded

by the ASR system (HYP) compared to a manual reference (REF).

HYP

timbalan perdana menteri berucap pada majlis pertubuhan rundingan undang

undang asia afrika salcon di new delhi (1)

majlis ini memberi tumpuan kepada tadbir urus kelompok dalam *** pada itu

persatuan kemungkinan isu dan cabaran (2)

*** *** tanzimuddin berkata di malaysia kerajaan memperkenalkan gagasan tua

yang tidak bercahaya (3)

ia penting sebagai landasan kawasan bentong dan *** kebangsaan (4)

beliau berkata malaysia percaya bahawa bagi mengekalkan dengan pas tidak

berani urus dasar awam itu mesti digerakkan ke arah memenuhi keperluan rakyat

(5)

pada majlis ini timbalan perdana menteri melancarkan buku *** *** pihak

tentera berhubung perundangan antarabangsa (6)

penulisnya setiausaha agung yang perlu yang berpangkalan di new delhi ***

rahman mohd yang juga ahli akademik (7)

selepas mengakhiri lawatan ke *** india tinting berikut timbalan perdana

menteri *** (8)

Page 23: broadcast news segmentation using automatic speech recognition

5

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

jas pindah tv tiga kini menjadi (9)

syarikat berkaitan kerajaan glc disaran membantu syarikat bumiputera yang

mengalami masalah kewangan ekoran ketidaktentuan ekonomi global (10)

REF

timbalan perdana menteri berucap pada majlis pertubuhan perundingan undang-

undang asia afrika aalco di new delhi (1)

majlis ini memberi tumpuan kepada tadbir urus global dalam abad kedua puluh

satu kemunculan isu dan cabaran (2)

tan sri muhyiddin berkata di malaysia kerajaan memperkenalkan gagasan rakyat

didahulukan pencapaian diutamakan (3)

ia penting sebagai landasan dasar dan program kebangsaan (4)

beliau berkata malaysia percaya bahawa bagi mengekalkan demokrasi dan tadbir

urus dasar awam mesti digerakkan ke arah memenuhi keperluan rakyat (5)

pada majlis ini timbalan perdana menteri melancarkan buku mengenai perspektif

asia afrika berhubung perundangan antarabangsa (6)

penulisnya setiausaha agung aalco yang berpangkalan di new delhi profesor

rahmat mohammad yang juga ahli akademik (7)

selepas mengakhiri lawatan ke new delhi destinasi berikut timbalan perdana

menteri chennai (8)

josephine daz tv tiga new delhi (9)

syarikat berkaitan kerajaan glc disaran membantu syarikat bumiputera yang

mengalami masalah kewangan ekoran ketidaktentuan ekonomi global (10)

Figure 1.2: An example of ASR transcription

1. Data quantity: This is a major factor that influences ASR performance. Large amount of

data are needed to train robust ASR models: hundreds of hours of transcribed speech

data for training acoustic model and Gigabytes of text in order to train the language

Page 24: broadcast news segmentation using automatic speech recognition

6

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

model. For example, as shown in Fig. 1.2, the word sequence “profesor rahmat

mohammad” might be a popular name, thus the occurrence of the string in text may be

low. Therefore, this word sequence may be misrecognized as the more frequently

occurring common word sequence “rahman mohamad.”

2. Environmental conditions: The presence of noise in the recording environment is an

important factor that reduces the performance of ASR systems. Hence, the noisy

condition of speakers typically increases WER.

3. Lexical content disparity: Lexical content variation is related on the accent of the

speaker, gender, emanation status, speech type (read speech or spontaneous). For

example, each speaker pronounces sound differently when talking (Akbacak, 2009). For

example, as illustrated in Fig. 1.2, the word “global” is recognized correctly, but in

sentence 2 misrecognized with word “kelompok” for the same speaker due to

pronunciation similarity. Moreover, some words sound seems very similar, which

renders it very harder to distinguish them (e.g. “word” and “world”).

4. Out-of-vocabulary problem: Out-of-vocabulary (OOV) words are unknown words that

are unrecognized by an ASR system. These words bring about recognition errors that

are usually deleted or substituted by other words included in recognition vocabulary,

referred to as in-vocabulary (IV) words, or can cause the insertion of non-uttered words

(Hetherington, 1995; Bazzi, 2002; Saraclar, 2004). As observed in Fig. 1.2, the word

“aalco” is not recognized correctly in two sentences (1 and 7), because it is an OOV

word and misrecognized with in-vocabulary words “salcon” and “perlu” respectively.

Page 25: broadcast news segmentation using automatic speech recognition

7

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

1.2.2 Topic Segmentation Problems

Topic segmentation is the process of segmenting and dividing a text transcription into

units that are related to one topic (Hearst, 1997). Determining the topic boundaries in

broadcast news transcription is a difficult process because of the impact of WER resulting

from ASR system as well as the absence of explicit punctuation and formatting (Ostendorf et

al., 2008). In addition, directly implementing conventional text document similarity measures,

such as the widely applied cosine score, to error-document often leads to poor results

(Ostendorf et al., 2008; Diao et al., 2010; Claveaua et al., 2015).

1.3 Research Questions

This research is designed to deal with the following questions:

1. How to minimize the word error rate in the ASR transcription?

2. How to detect and reduce the OOV words in ASR transcription?

3. What is a better topic segmentation algorithm that can better deal with the

decoding errors?

Page 26: broadcast news segmentation using automatic speech recognition

8

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

1.4 Research Objectives

Based on the challenges highlighted above, the main objectives of this study are as

follows:

1. To propose an approach capable of minimizing the WER in ASR transcription with

rescoring approach at time-level.

2. To propose an approach that reduces the WER and OOV words in ASR transcription

using rescoring approach at phrase-level and phone-level.

3. To propose a topic segmentation approach that can deal with ASR errors better.

1.5 Scope of the Study

The general aim of the research is to improve Malay broadcast news transcription and

reduce the impact of the decoding errors on topic segmentation, in order to support useful

applications such as information retrieval. This thesis is concerned with the transcription of

Malay broadcast news comprising speeches of newscasters, reporters, and interviewers in

noisy environments. The collection of broadcast news were acquired from local news channels

in Malaysia (e.g. Television 3 (TV3) and Natseven Television (NTV7)), including different

types of news. This data were collected in March 2011.

However, the code-switching (multilingual) is out of the scope in the current study.

Page 27: broadcast news segmentation using automatic speech recognition

9

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

1.6 Thesis Layout

This thesis consists of six chapters. Chapter One provides a general introduction to

the thesis topic, including motivation for the study, significance of the study, problem

statement, questions and objectives of the study, and scope of the study. Chapter Two

presents theoretical background of the research area. Chapter Three and Four describe the

research methodology and proposed framework, respectively. Chapter Five presents the

results of experiments and analyses performed in the study. Chapter Six concludes with a

summary of the results and a discussion of future work.

Chapter 2: Theoretical Background

This chapter presents a theoretical background and an overview of the ASR system

combination. In addition, a background of topic segmentation will be discussed.

Chapter 3: Research Methodology

This chapter presents broadcast news segmentation approaches adapted for this

research, which comprises experimental setup, datasets and evaluation metric.

Chapter 4: Proposed Broadcast News Segmentation Approaches

This chapter deals with the framework of the methodology proposed to answer the

research questions. The proposed methodology consists of two sections: improving in ASR

results and topic segmentation will be described.

Page 28: broadcast news segmentation using automatic speech recognition

10

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

Chapter 5: Experimental Results

The experimental results of ASR combination and topic segmentation are discussed in

this chapter.

Chapter 6: Conclusion and Future Studies

The final chapter summarizes the conclusions of this thesis and provides suggestions

for future studies.

Page 29: broadcast news segmentation using automatic speech recognition

11

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

CHAPTER 2

THEORETICAL BACKGROUND

2.1 Introduction

Spoken document segmentation (SDS) system is a system that transcribes spoken files

to text and the text is then divided into textual units. The segmented text is subsequently be

transformed to content that can be used in subsequent processing such as information retrieval,

text summarization, and translation. The following figure shows a typical SDS system.

Figure 2.1: A typical SDS system

Automatic speech recognition

---------

---------

---------

------

Transcription

SDS system

Topic segmentation

Subtopics

---------

---------

--

To Processing:

Translation

Summarization

Classification

Searching

Page 30: broadcast news segmentation using automatic speech recognition

12

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

SDS system consists of an automatic speech recognition system (ASR) and a topic

segmentation. The main goal of ASR is to decode speech to text transcription. ASR system is

used because manual news transcription is too expensive and takes a long time, in addition, the

access to multimedia archive and searches within them would be restricted to the limited

number of textual documents that have been manually transcribed by humans or indexed with

keywords(Grangier et al., 2005; Wu et al., 2009; Lu et al., 2010).

The resulting transcription generated by ASR system is then divided into subtopics

that are related by using topic segmentation. Topic segmentation approach needed because the

ASR transcription is an unstructured document (Ostendorf et al., 2008; Chelba et al., 2011).

Fig. 2.2 shows an example of topic segmentation. The resulting subtopics can then be

converted to indexing content that is searchable via information retrieval (IR) system. Thus, IR

aims to locate information inside the indexed subtopics that is relevant to a user’s query.

Figure 2.2: An example of topic segmentation approach

penolong prosiding siasatan

kematian teoh beng hock ----

----------------------------------

----------------------------------

-- sekalung tahniah buat

datuk lee chong wei ----------

----------------------------------

---- diraja putera william dan

kate middleton ----------------

-----------------------

penolong prosiding

siasatan kematian teoh

beng hock ----- ---------

----------------------------

------------------------

sekalung tahniah buat

datuk lee chong wei ----

----------------------------

----------------------------

-------------------

diraja putera william

dan kate middleton ---

--------------------------

--------------------------

------------------------

Broadcast news

Transcription

Topic 1

Topic 2

Topic 3

Page 31: broadcast news segmentation using automatic speech recognition

13

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

The growing interest in broadcast news in the community of the ASR and SDR

systems is related to the following issues:

1. Broadcast news is one of the resources that have rich information.

2. Broadcast news data is considered as an ideal test platform because it contains vast

different topics.

3. Broadcast news is considered a challenging domain for the ASR community because:

It may have different styles within (e.g., reading, two-way conversation,

interviews, spontaneous speaking).

Broadcast news contains a different number of speakers and genders which

makes it a harder task during processing.

There are no acoustic pauses between spoken words in continuous speech file

in lieu of blanks in texts.

The broadcast news is recorded in a different environment that can include

noise and music background. It can also contain advertisements.

There are two major problems in SDS system. The first problem is that the ASR

system may have a high word error rate (WER) (e.g., more than 30%), which will significantly

impact topic segmentation (Lo et al., 2004; Senay et al., 2011). The most direct method to

enhance the accuracy of an SDS system is by improving ASR performance and consequently

reducing recognition errors in ASR hypothesis. Researchers have addressed the problem in

ASR in many ways. One way is to combine multiple ASR systems to improve the decoding by

exploiting different ASR outputs to take advantage of their potential complementarities to

Page 32: broadcast news segmentation using automatic speech recognition

14

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

improve the transcript (Breslin et al., 2007; Hoffmeister et al., 2008). Furthermore, the ASR

can be run in different machines with different knowledge sources. Considering the above

reasons, the two primary aim of this thesis is to improve ASR using two independent system

combinations.

The second problem is in processing ASR outputs, which are unstructured data.

Textual documents typically have punctuation and capitalization to format and segment words

into sentences and their corresponding sub-sentential units. Sentences are then further

organized into high-level groups in the forms of paragraphs by means of formatting.

Contrastingly, when a spoken language is processed through an ASR, the output comprises an

raw stream of words, and consequently, the ideal solution would be to automatically segment

the spoken document and convey the results to users (Ostendorf et al., 2008; Diao et al.,

2010).

Some efforts have been made by researchers to develop methods to segment a spoken

document (especially in the broadcast news domain) into separate topics (stories) to enhance

the performance of the SDS task (Ostendorf et al., 2008; Lu et al., 2010). Due to the

importance of spoken document segmentation and the difficulty of manual segmentation,

which is time-consuming and expensive, the focus of the current thesis is on improving topic

segmentation. Therefore, another aim of this thesis is to improve the segmentation of the

transcription into meaningful coherent topics/stories. By separating the ASR text into stories,

relevant sentences that describe an event can be grouped together. This task is also considered

as an essential step for subsequent high-level processing in the natural language-processing

Page 33: broadcast news segmentation using automatic speech recognition

15

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

field such as machine translation, topic detection, and classification. Thus, this thesis is

focused on SDS system (see the red dotted rectangle in Fig. 2.1).

This chapter is structured around two main parts: The first part will present, in section

2.2, an overview of the ASR architecture and the previous studies of the ASR system

combination. In section 2.3, literature review of topic segmentation is provided. Finally, this

chapter concludes with a discussion to show the limitations of existing algorithms.

2.2 Automatic Speech Recognition System

An ASR system is a system that decodes speech signals into a sequence of words.

Statistical ASR systems produce the most likely words given the observed acoustic features

(Ahmed, 2014). Fig. 2.3 shows a statistical ASR architecture.

Figure 2.3: An ASR Module (Tan, 2008)

Speech

corpus

Transcription

Pronunciation

model

Text

corpus

Acoustic

modeling

Grapheme

to Phoneme

Language

modeling

Training

Acoustic

Model

Pronunciation

model

Language

Model

Signal

Processing

Decoder

Decoding

Text

Page 34: broadcast news segmentation using automatic speech recognition

16

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

As shown in Fig. 2.3, an ASR consists of two main modules: training (learning) and

decoding (recognition). Three models, an acoustic, a language and a pronunciation model, are

created during training and they used to decode speech to text. The acoustic model represents

elementary speech units such as phones, words, and syllables. The pronunciation model

defines larger linguistic units such as syllables or words using the acoustic units. In turn, the

statistical language structure and syntax are represented in the language model (Tan, 2008).

The ASR decoding module consists of two components: a signal processing front-end

and a decoder. The main role of the signal processing front-end is to digitize the analog signal,

extract feature observations from the signal, and then convert the signal into distinct features

for recognition (Rosdi, 2008; Tan, 2008). A decoder is a search process that aims to capture

the sequence of the most probable words given a series of feature observations (Mengusoglu,

2004). Fig. 2.4 shows the framework of a decoding module.

Page 35: broadcast news segmentation using automatic speech recognition

17

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

Figure 2.4: The decoding module

Feature extraction is the task of a signal processing front-end of an ASR system that

translates the speech waveform into a compact acoustic representation. Acoustic model

defines the phones of a language. Conversely, the pronunciation model represents the word

that make up from phones. The language model provides the a priori likelihood of a

hypothesized word string based on the syntax of the language to be recognized (Tan, 2008).

Some of the essential components of the ASR system will be explained in more details

in the following subsections.

2.2.1 Signal Processing Front-End

Feature extraction is the task of the signal processing front-end of an ASR system that

converts the speech waveform to some type of parametric representation. The aim of the signal

Feature

Extraction

Acoustic

Model

Pronunciation

Model

Language

Model

See You

Sea You

Soy You

See

You s i

y

y uw

s oy

y uw

Page 36: broadcast news segmentation using automatic speech recognition

18

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

processing front-end is to derive distinguishing features that are discernibly significant (Rosdi,

2008). Firstly, the signal processing front-end digitizes an analog signal into a compact

acoustic representation. This process comprises a number of stages: filtering, pre-emphasis,

quantization, and sampling. A sampling frequency of 16 kHz has been shown to be adequate

for comprehensibly characterizing human speech (Rosdi, 2008; Tan, 2008). However,

parameterization is generally applied to speech at the frame level using a sliding window

average with a short inter-frame step size of 10 ms. Then, the digitized signal is transformed

into feature vectors that are more pertinent for speech processing. The potential types of

features (feature vectors) consist of short-time spectral envelopes, zero crossing rates, energy,

level-crossing rates, and so on. Frequency-domain features such as short-time spectral

envelopes are more descriptive for analyzing speech compared with time-domain features

(Tan, 2008; Akbacak, 2009).

The spectral analysis methods include the linear predictive coding (LPC) (Atal et al.,

1967), perceptual linear prediction (PLP) (Hermansky, 1990), and mel-frequency cepstrum

(MFC) spectral analysis models. Mel-frequency cepstral coefficients (MFCCs) are one of the

most extensively employed features in ASR (Davis et al., 1980). MFCCs are related to the real

cepstrum of a windowed short-time signal extracted from a series of the fast Fourier transform

(FFT) of that signal. Non-linear predictors are proposed to approximate the behavior of the

auditory response of the human ear instead of utilizing traditional linearly spaced frequency

scale bands (Qin, 2013).

Page 37: broadcast news segmentation using automatic speech recognition

19

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

2.2.2 Decoder

In ASR, the decoder is the module that reveals the word sequences embedded in the

speech signal or specifically the feature vectors. Finding the most probable word sequence can

be accomplished by optimizing the posterior probabilities of the specified feature vectors.

Statistical ASR aims to decode a given acoustic observation X to the corresponding word

sequence W’ = w1, w2, . . .,wm that has the maximum expected posterior probability P(W|X),

( | ) (2.1)

Rather than calculating the posterior probability directly, it can be replaced with

another form with the use of Bayes theorem:

( ) ( | ) ( ) (2.2)

Since the augmentation in equation (2.2) is performed with the observation X fixed, it

is identical to the following maximization:

( ) ( | ) (2.3)

Generally, directly calculating the probability P(X|W) of each word in the small

vocabulary systems of tracking models of the acoustic signal may be possible, but the

Page 38: broadcast news segmentation using automatic speech recognition

20

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

calculation becomes more complicated with increasing vocabulary. For this reason, the

probability P(X|W) of equation (2.3) is rewritten as:

( | ) ∑ ( | ) (2.4)

where U is sequences of the phonetic units. The probability of the acoustics given a

sequence of words can be marginalized in equation (2.4) over all possible sequences of

phonetic units. Assuming that the acoustics X are independent of the word sequence W given

the phonetic sequence U:

( | ) ∑ ( | ) ( | ) (2.5)

Typically, by decomposing the sequences of words W into sequences of phonetic units

U, the search for the most likely word hypothesis W given the acoustics observation X can be

represented as follows:

( | ) ( | ) ( ) (2.6)

Equation (2.6) indicates the three models that are used in ASR: P(X|U) refers to the

acoustic model, P(U|W) refers to the pronunciation model, and P(W) refers to the language

model (Gales et al., 2007; Tan, 2008). The approach that uses these models (acoustic,

pronunciation and language) to produce the most likely sequence as the ASR output is called

the decoder.

Page 39: broadcast news segmentation using automatic speech recognition

21

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

The decoder is the engine of an ASR system that decodes feature vectors into text

(Shi, 2008). The decoding process of a statistical ASR system refers to a search process that

aims to capture the sequence of words whose corresponding acoustic, pronunciation and

language models best match the input speech signal (Mengusoglu, 2004). Taken together, the

acoustic representation of the speech signal is compared and matched during the search against

the acoustic model which encodes the acoustic realization of the signal speech in the form of

likelihoods. Then, these probabilities are integrated with the prior likelihoods for word

sequences (the language model), leading to a vast "complex network" of possible word

sequences. The term "search space" is used to designate this complex network (Chelba et al.,

2011).

Fig. 2.5 illustrates the process of decoding an utterance, using a decoder with a

vocabulary of just three words {A, B, C}. The linked small circles denote hidden Markov

models (HMMs) that define the phones. The acoustic score P(X|U) of the observation is

calculated given the HMMs. The dotted circles signify the word pronunciation models

P(U|W). The arrows connecting the dotted circles specify the language probability P(W),

while the arrow linking connected circles symbolizes the shift from one phoneme model to

another (Tan, 2008).

Page 40: broadcast news segmentation using automatic speech recognition

22

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

Figure 2.5: Speech recognition as a search problem.

The most plausible word gives the highest score of P(W)P(U|W)P(X|U)

2.2.3 Acoustic Model

The decoder determines the P(X|U) probability from the acoustic model of equation

(2.6). An acoustic model defines the basic speech units, such as phones, words, or syllables.

Acoustic models were created from the training set of observed features. This training set is a

large set of transcribed speech data. Baum-Welch algorithm is used to train the acoustic

models.

</S>

SIL

<S>

b

eI

s

i

i

W=’B’

SIL

P (w0=C|w

1=<s>)

W=’C’

W=’A’

P (w0=A|w

1=<s>)

P (X|W)

x1

x2

x3

x4 x

5 x

6 x

7 x

8 x

9 x

10 x

11 x

12 x

13 x

14 x

15

Feature

vectors

Page 41: broadcast news segmentation using automatic speech recognition

23

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

There are several potential ways of modeling the acoustic units, such as HMMs, artificial

neural networks, template models and so on. An HMM is one of the most extensively utilized

approaches in statistical ASR due to its versatility (Mengusoglu, 2004).

The theory of HMMs was developed in the late 1960s. IBM has employed it in ASR

since the 1970s. A Markov chain is a stochastic procedure with a short memory in which the

current state is based solely on the preceding state. In a Markov chain, the observations are

actually the state sequence. An HMM is an extension of the Markov chain where the

observation is a function of the state; thus, the state sequence is hidden in an HMM (Ming,

2007; Tan, 2008; Zhu et al., 2012).

The P(U|W) and P(X|U) terms from equation (2.6) can be provided within an HMM

framework.

2.2.4 Pronunciation Model

The pronunciation or lexical model, denoted with P(U|W) in equation (2.6), is also

called the lexicon. Typically, a pronunciation model represents words/phrase and their

permissible pronunciations, which are often defined as a sequence of phonemes (Chang,

2012). The pronunciation model defines the permissible vocabulary. Consequently, an ASR

framework can only recognize a limited number of words that are contained in the

pronunciation model. Table 2.1 shows some example words and their phoneme

sequences(Qin, 2013).

Page 42: broadcast news segmentation using automatic speech recognition

24

أماناياابنفاطمة...مستمسكابيديمنطارقالزمن يأريدأن

ا...والمرتضىحيدرأعنيأباالحسن ــمنفاطموبنيهاثموالده

جنوده من الجن واالنس والطير فهم يوزعون وأسألك ان تلين لي قلبه كما لينت الحديد لداود عليه السالم وأسألك ان تذلل لي قلبه نور السماوات واالرض ان تسخر لي قلب الممتحن كما سخرت الحية لموسى بن عمران عليه السالم وأسألك ان تسخر لي قلبه كما سخرت لسليمان بسم ميحرلا نمحرلا هللا )اللهم اني أسألك يا هللا يا واحد يا احد يا وتر يا ك على كل شيء قدير وهو على ما هو فيما هو ال اله اال هو الحي القيوم(ر القمر لنور الشمس يا هللا هو عبدك وابن امتك وانا عبدك وابن امتك اخذت بقدميه وبناصيته فسخره لي حتى يقضي حاجتي هذه وما اريد انكما ذللت نو

للهم ال سهل اال ما جعلته سهال حسبنا هللا ونعم الوكيل على هللا توكلنا"بسم ميحرلا نمحرلا هللا" ال حول وال قوة اال باهلل العلي العظيم ا

Table 2.1: Examples of lexical mappings from words to phonemes

Word Pronunciation Meaning

berselawat / b ǝ r s ǝ l a w a t / bless

ketinggalan / k ǝ t i ŋ g a l a n / miss

spontannya / s p o n t a n ŋ a / spontaneous

2.2.5 Language Model

The language model specifies the probable distribution of words. Statistical language

model for an ASR system is the n-gram language model (Bahl et al., 1983). An n-gram model

is used to approximating the probability of a sentence P(W), where W is a sequence of words

{W=w1,w2,w3,.. wn}. By applying a chain rule (Stolcke, 2002), on both W and P(W), the

probability of a sentence can be calculated as follows:

(2.7)

The probability of the n-gram model for the word sequence “selamat hari

raya Aidilfitri” can be estimated as follows:

For a Unigram model:

P(selamat hari raya Aidilfitri) =P(selamat)*P(hari)*P(raya)*P(Aidilfitri)

),...,|( 21

1

n

n

k

k wwwwP

)...,,()( 321 nwwwwPWP

),...|()...,|()|()( 1213121 nn wwwPwwwPwwPwP