発表文献

English | Japanese


TOP





学術論文
  1. Yukiya Hono, Shinji Takaki, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "PeriodNet: A Non-Autoregressive Raw Waveform Generative Model With a Structure Separating Periodic and Aperiodic Components," IEEE Access, vol. 9, pp. 137599-137612, October, 2021. (DOI: 10.1109/ACCESS.2021.3118033) [paper(link)]
  2. Yukiya Hono, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Sinsy: A Deep Neural Network-Based Singing Voice Synthesis System," IEEE/ACM Transactions on Audio, Speech and Language Processing, vol. 29, pp. 2803-2815, August, 2021. (DOI: 10.1109/TASLP.2021.3104165) [paper(link)]
  3. Kei Sawada, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "A Bayesian framework for image recognition based on hidden Markov eigen-image models," IEEJ Transactions on Electrical and Electronic Engineering, vol. 13, Issue 9, pp. 1335-1347, September, 2018. (DOI: 10.1002/tee.22700) [paper(link)]
  4. Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Mel-cepstrum-based quantization noise shaping applied to neural-network-based speech waveform synthesis," IEEE/ACM Transactions on Audio, Speech and Language Processing, vol. 26, Issue 7, pp. 1173-1180, July, 2018. (DOI: 10.1109/TASLP.2018.2818408) [paper(link)] (第13回 IEEE Signal Processing Society Japan Student Journal Paper Award)
  5. Kei Sawada, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Constructing text-to-speech systems for languages with unknown pronunciations," Acoustical Science and Technology, vol. 39, Issue 2, pp. 119-129, March, 2018. (DOI: 10.1250/ast.39.119) [paper(link)]
  6. 大浦圭一郎, 橋本佳, 南角吉彦, 徳田恵一, "隠れマルコフモデルに基づく日本語音声合成ソフトウェア入門," システム制御情報学会誌, vol. 62, no. 2, pp. 57-62, February 2018. (DOI: 10.11509/isciesci.62.2_57) [paper(link)]
  7. Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Simultaneous optimization of multiple tree-based factor analyzed HMM for speech synthesis," IEEE/ACM Transactions on Audio, Speech and Language Processing, vol. 25, Issue 9, pp. 1532-1541, September, 2017. (DOI: 10.1109/TASLP.2017.2721219) [paper(link)]
  8. 橋本佳, 高木信二, "深層学習に基づく統計的音声合成," 日本音響学会誌(小特集 --音声言語処理における深層学習--), vol. 73, no. 1, pp. 55-62, January, 2017. (解説論文) (DOI: 10.20697/jasj.73.1_55) [paper(link)]
  9. Kei Sawada, Akira Tamamori, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "A Bayesian approach to image recognition based on separable lattice hidden Markov models," IEICE TRANSACTIONS on Information & Systems, vol. E99-D, no. 12, pp. 3119-3131, December, 2016. (DOI: 10.1587/transinf.2016EDP7112) [paper(link)]
  10. Kazuhiro Nakamura, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Integration of spectral feature extraction and modeling for HMM-based speech synthesis," IEICE TRANSACTIONS on Information & Systems, vol. E97-D, no. 6, pp. 1438-1448, June, 2014. (DOI: 10.1587/transinf.E97.D.1438) [paper(link)]
  11. Sayaka Shiota, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "A Bayesian framework using multiple model structures for speech recognition," IEICE TRANSACTIONS on Information & Systems, vol. E96-D, no. 4, pp. 939-948, April, 2013. (DOI: 10.1587/transinf.E96.D.939) [paper(link)]
  12. Kei Hashimoto, Junichi Yamagishi, William Byrne, Simon King, and Keiichi Tokuda, "Impacts of machine translation and speech synthesis on speech-to-speech translation," Speech Communication, vol. 54, Issue 7, pp. 854-866, September, 2012. (DOI: 10.1016/j.specom.2012.02.004) [paper(link)]
  13. Sayaka Shiota, Kei Hashimoto, Heiga Zen, Yoshihiko Nankaku, Akinobu Lee, and Keiichi Tokuda, "Speech recognition based on statistical models including multiple phonetic decision trees," Acoustical Science and Technology, vol. 32, no. 6, pp. 236-243, November, 2011. (DOI: 10.1250/ast.32.236) [paper(link)]
  14. Kei Hashimoto, Heiga Zen, Yoshihiko Nankaku, Akinobu Lee, and Keiichi Tokuda, "Bayesian context clustering using cross validation for speech recognition," IEICE TRANSACTIONS on Information & Systems, vol. E94-D, no. 3, pp. 668-678, March, 2011. (DOI: 10.1587/transinf.E94.D.668) [paper(link)]
  15. Kei Hashimoto, Hirohumi Yamamoto, Hideo Okuma, Eiichiro Sumita, and Keiichi Tokuda, "A reordering model using a source-side parse-tree for statistical machine translation," IEICE TRANSACTIONS on Information & Systems, vol. E92-D, no. 12, pp. 2386-2393, December, 2009. (DOI: 10.1587/transinf.E92.D.2386) [paper(link)]


国際会議
  1. Yukiya Hono, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Singing voice synthesis based on a musical note position-aware attention mechanism," Proceedings of 2023 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2023), Greece, June 4-10, 2023.
  2. Takenori Yoshimura, Shinji Takaki, Kazuhiro Nakamura, Keiichiro Oura, Yukiya Hono, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Embedding a differentiable mel-cepstral synthesis filter to a neural speech synthesis system," Proceedings of 2023 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2023), Greece, June 4-10, 2023.
  3. Takato Fujimoto, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Autoregeressive variational autoencoder with a hidden semi-Markov model-based structured attention for speech synthesis," Proceedings of 2022 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2022), pp. 7462-7466, Singapore, May 7-13, 2022.
  4. Yukiya Hono, Shinji Takaki, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "PeriodNet: A non-autoregressive waveform generation model with a structure separating periodic and aperiodic components," Proceedings of 2021 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2021), pp. 6049-6053, Toronto, Canada, June 6-11, 2021.
  5. Yukiya Hono, Kazuna Tsuboi, Kei Sawada, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Hierarchical Multi-Grained Generative Model for Expressive Speech Synthesis," Proceedings of Interspeech 2020, pp. 3441-3445, Shanghai, China, October 25-29, 2020.
  6. Takato Fujimoto, Shinji Takaki, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Semi-supervised learning based on hierarchical generative models for end-to-end speech synthesis," Proceedings of 2020 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2020), pp. 7644-7648, Barcelona, Spain, May 4-8, 2020.
  7. Kazuhiro Nakamura, Shinji Takaki, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Fast and high-quality singing voice synthesis system based on convolutional neural networks," Proceedings of 2020 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2020), pp. 7239-7243, Barcelona, Spain, May 4-8, 2020.
  8. Motoki Shimada, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Low computational cost speech synthesis based on deep neural networks using hidden semi-Markov model structures," Proceedings of 10th ISCA Speech Synthesis Workshop (SSW10), pp. 177-182, Vienne, Austria, September 20-22, 2019.
  9. Takato Fujimoto, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Impacts of input linguistic feature representation on Japanese end-to-end speech synthesis," Proceedings of 10th ISCA Speech Synthesis Workshop (SSW10), pp. 166-171, Vienne, Austria, September 20-22, 2019.
  10. Keiichiro Oura, Kazuhiro Nakamura, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Deep neural network based real-time speech vocoder with periodic and aperiodic inputs," Proceedings of 10th ISCA Speech Synthesis Workshop (SSW10), pp. 13-18, Vienne, Austria, September 20-22, 2019.
  11. Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Speaker-dependent WaveNet-based delay-free ADPCM speech coding," Proceedings of 2019 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2019), pp. 7145-7149, Brighton, UK, May 12-17, 2019.
  12. Yukiya Hono, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Singing voice synthesis based on generative adversarial networks," Proceedings of 2019 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2019), pp. 6955-6959, Brighton, UK, May 12-17, 2019.
  13. Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "WaveNet-based zero-delay lossless speech coding," Proceedings of 2018 IEEE Workshop on Spoken Language Technology (SLT 2018), pp. 153-158, Athens, Greece, December 18-21, 2018.
  14. Kento Nakao, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Speaker adaptation for speech synthesis based on deep neural networks using hidden semi-Markov model structures," Proceedings of Asia-Pacific Signal and Information Processing Association Annual Summit and Conference 2018 (APSIPA ASC 2018), pp. 638-643, Honolulu, Hawaii, November 12-15, 2018.
  15. Takayuki Kasugai, Yoshinari Tsuzuki, Kei Sawada, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Image recognition based on convolutional neural networks using features generated from separable lattice hidden Markov models," Proceedings of Asia-Pacific Signal and Information Processing Association Annual Summit and Conference 2018 (APSIPA ASC 2018), pp. 324-328, Honolulu, Hawaii, November 12-15, 2018.
  16. Koki Senda, Yukiya Hono, Kei Sawada, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Singing voice conversion using posted waveform data on music social media," Proceedings of Asia-Pacific Signal and Information Processing Association Annual Summit and Conference 2018 (APSIPA ASC 2018), pp. 1913-1917, Honolulu, Hawaii, November 12-15, 2018.
  17. Yukiya Hono, Shumma Murata, Kazuhiro Nakamura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Recent development of the DNN-based singing voice synthesis system -- Sinsy," Proceedings of Asia-Pacific Signal and Information Processing Association Annual Summit and Conference 2018 (APSIPA ASC 2018), pp. 1003-1009, Honolulu, Hawaii, November 12-15, 2018.
  18. Takenori Yoshimura, Natsumi Koike, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Discriminative feature extraction based on sequential variational autoencoder for speaker recognition," Proceedings of Asia-Pacific Signal and Information Processing Association Annual Summit and Conference 2018 (APSIPA ASC 2018), pp. 1742-1746, Honolulu, Hawaii, November 12-15, 2018.
  19. Takato Fujimoto, Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Speech synthesis using WaveNet vocoder based on periodic/aperiodic decomposition," Proceedings of Asia-Pacific Signal and Information Processing Association Annual Summit and Conference 2018 (APSIPA ASC 2018), pp. 644-648, Honolulu, Hawaii, November 12-15, 2018.
  20. Kei Sawada, Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "The NITech text-to-speech system for the Blizzard Challenge 2018," Proceedings of Blizzard Challenge 2018 Workshop, Hyderabad, India, September 8, 2018. (web proceedings)
  21. Eiji Ichikawa, Kei Sawada, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Image recognition based on separable lattice HMMs using a deep neural network for output probability distributions," Proceedings of 2018 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2018), pp. 3021-3025, Calgary, Canada, April 15-20, 2018.
  22. Jumpei Niwa, Takenori Yoshimura, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Statistical voice conversion based on WaveNet," Proceedings of 2018 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2018), pp. 5289-5293, Calgary, Canada, April 15-20, 2018.
  23. Kei Sawada, Kei Hashimoto, Keiichiro Oura, and Keiichi Tokuda, "The NITech text-to-speech system for the Blizzard Challenge 2017," Proceedings of Blizzard Challenge 2017 Workshop, Stockholm, Sweden, August 25, 2017. (web proceedings)
  24. Amelia Gully, Takenori Yoshimura, Damian Murphy, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Articulatory text-to-speech synthesis using the digital waveguide mesh driven by a deep neural network," Proceedings of Interspeech 2017, pp. 234-238, Stockholm, Sweden, August 20-24, 2017.
  25. Yoshinari Tsuzuki, Kei Sawada, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Image recognition based on discriminative models using features generated from separable lattice HMMs," Proceedings of 2017 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2017), pp. 2607-2611, New Orleans, USA, March 5-9, 2017.
  26. Kei Sawada, Chiaki Asai, Kei Hashimoto, Keiichiro Oura, and Keiichi Tokuda, "The NITech text-to-speech system for the Blizzard Challenge 2016," Proceedings of Blizzard Challenge 2016 Workshop, California, USA, September 16, 2016. (web proceedings)
  27. Keiichi Tokuda, Kei Hashimoto, Keiichiro Oura, and Yoshihiko Nankaku, "Temporal modeling in neural network based statistical parametric speech synthesis," Proceedings of 9th ISCA Speech Synthesis Workshop (SSW9), pp. 113-118, California, USA, September 13-15, 2016.
  28. Rasmus Dall, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Redefining the linguistic context feature set for HMM and DNN TTS through position and parsing," Proceedings of Interspeech 2016, pp. 2851-2855, California, USA, September 8-12, 2016.
  29. Masanari Nishimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Singing voice synthesis based on deep neural networks," Proceedings of Interspeech 2016, pp. 2478-2482, California, USA, September 8-12, 2016.
  30. Naoki Hosaka, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Voice conversion based on trajectory model training of neural networks considering global variance," Proceedings of Interspeech 2016, pp. 307-311, California, USA, September 8-12, 2016.
  31. Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Trajectory training considering global variance for speech synthesis based on neural networks," Proceedings of 2016 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2016), pp. 5600-5604, Shanghai, China, March 20-25, 2016.
  32. Kei Hashimoto, Junichi Yamagishi, and Isao Echizen, "Privacy-preserving sound to degrade automatic speaker verification performance," Proceedings of 2016 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2016), pp. 5500-5504, Shanghai, China, March 20-25, 2016.
  33. Kei Sawada, Kei Hashimoto, Keiichiro Oura, and Keiichi Tokuda, "The NITECH HMM-based text-to-speech system for the Blizzard Challenge 2015," Proceedings of Blizzard Challenge 2015 Workshop, Berlin, Germany, September 11, 2015. (web proceedings)
  34. Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Simultaneous optimization of multiple tree structures for factor analyzed HMM-based speech synthesis," Proceedings of Interspeech 2015, pp. 1196-1200, Dresden, Germany, September 6-10, 2015.
  35. Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "The effect of neural networks in statistical parametric speech synthesis," Proceedings of 2015 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2015), pp. 4455-4459, Brisbane, Australia, April 19-24, 2015.
  36. Kei Sawada, Shinji Takaki, Kei Hashimoto, Keiichiro Oura, and Keiichi Tokuda, "Overview of NITECH HMM-based text-to-speech system for Blizzard Challenge 2014," Proceedings of Blizzard Challenge 2014 Workshop, Singapore, September 19, 2014. (web proceedings)
  37. Kazuhiro Nakamura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "A mel-cepstral analysis technique restoring high frequency components from low-sampling-rate speech," Proceedings of Interspeech 2014, pp. 2494-2498, Singapore, September 14-18, 2014.
  38. Kanako Shirota, Kazuhiro Nakamura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Integration of speaker and pitch adaptive training for HMM-based singing voice synthesis," Proceedings of 2014 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2014), pp. 2578-2582, Florence, Italy, May 4-9, 2014.
  39. Kei Sawada, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Image recognition based on hidden Markov eigen-image models using variational Bayesian method," Proceedings of Asia-Pacific Signal ans Information Processing Association Annual Summit and Conference 2013 (APSIPA ASC 2013), Kaohsiung, Taiwan, October 29-November 1, 2013.
  40. Shinji Takaki, Kei Sawada, Kei Hashimoto, Keiichiro Oura, and Keiichi Tokuda, "Overview of NITECH HMM-based speech synthesis system for Blizzard Challenge 2013," Proceedings of Blizzard Challenge 2013 Workshop, Barcelona, Spain, September 3, 2013. (web proceedings)
  41. Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "Cross-lingual speaker adaptation based on factor analysis using bilingual speech data for HMM-based speech synthesis," Proceedings of 8th ISCA Speech Synthesis Workshop (SSW8), pp. 317-322, Barcelona, Spain, August 31-September 2, 2013.
  42. Takaya Makino, Shinji Takaki, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Separable lattice 2-D HMMs introducing state duration control for recognition of images with various variations," Proceedings of 2013 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2013), pp. 3203-3207, Vancouver, Canada, May 26-31, 2013.
  43. Kazuhiro Nakamura, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Integration of acoustic modeling and mel-cepstral analysis for HMM-based speech synthesis," Proceedings of 2013 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2013), pp. 7883-7887, Vancouver, Canada, May 26-31, 2013.
  44. Shinji Takaki, Kei Sawada, Kei Hashimoto, Keiichiro Oura, and Keiichi Tokuda, "Overview of NIT HMM-based speech synthesis system for Blizzard Challenge 2012," Proceedings of Blizzard Challenge 2012 Workshop, Portland, Oregon, U.S.A., September 14, 2012. (web proceedings)
  45. Takafumi Hattori, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "A Bayesian approach to speaker recognition based on GMMs using multiple model structures," Proceedings of Interspeech 2012, Portland, Oregon, U.S.A., September 9-13, 2012.
  46. Kei Sawada, Akira Tamamori, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Face recognition based on separable lattice 2-D HMMs using variational Bayesian method," Proceedings of 2012 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2012), pp. 2205-2208, Kyoto, Japan, March 25-30, 2012.
  47. Sayaka Shiota, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "A model structure integration based on Bayesian framework for speech recognition," Proceedings of 2012 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2012), pp. 4813-4816, Kyoto, Japan, March 25-30, 2012.
  48. Kei Hashimoto, Shinji Takaki, Keiichiro Oura, and Keiichi Tokuda, "Overview of NIT HMM-based speech synthesis system for Blizzard Challenge 2011," Proceedings of Blizzard Challenge 2011 Workshop, Turin, Italy, September 2, 2011. (web proceedings)
  49. Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Multi-speaker modeling with shared prior distributions and model structures for Bayesian speech synthesis," Proceedings of Interspeech 2011, pp. 113-116, Florence, Italy, August 28-31, 2011.
  50. Kei Hashimoto, Junichi Yamagishi, William Byrne, Simon King, and Keiichi Tokuda, "An analysis of machine translation and speech synthesis in speech-to-speech translation system," Proceedings of 2011 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2011), pp. 5108-5111, Prague, Czech Republic, May 22-27, 2011.
  51. Keiichiro Oura, Kei Hashimoto, Sayaka Shiota, and Keiichi Tokuda, "Overview of NIT HMM-based speech synthesis system for Blizzard Challenge 2010," Proceedings of Blizzard Challenge 2010 Workshop, Kyoto, Japan, September 25, 2010.
  52. Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Bayesian speech synthesis framework integrating training and synthesis processes," Proceedings of 7th ISCA Speech Synthesis Workshop (SSW7), pp. 106-111, Kyoto, Japan, September 22-24, 2010.
  53. Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "A Bayesian approach to hidden semi Markov model based speech synthesis," Proceedings of Interspeech 2009, pp. 1751-1754, Brighton, United Kingdom, September 6-10, 2009. (Student Paper Award Finalist)
  54. Sayaka Shiota, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Deterministic annealing based training algorithm for Bayesian speech recognition," Proceedings of Interspeech 2009, pp. 680-683, Brighton, United Kingdom, September 6-10, 2009.
  55. Kei Hashimoto, Hirohumi Yamamoto, Hideo Okuma, Eiichiro Sumita, and Keiichi Tokuda, "Reordering model using syntactic information of a source tree for statistical machine translation," Proceedings of the Third Workshop on Syntax and Structure in Statistical Translation (SSST-3) at North American Chapter of the Association for Computational Linguistics - Human Language Technologies (NAACL-HLT) 2009, pp. 69-77, Boulder, Colorado, U.S.A., June 5, 2009.
  56. Kei Hashimoto, Heiga Zen, Yoshihiko Nankaku, Takashi Masuko, and Keiichi Tokuda, "A Bayesian approach to HMM-based speech synthesis," Proceedings of 2009 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2009), pp. 4029-4032, Taipei, Taiwan, April 19-24, 2009.
  57. Kei Hashimoto, Heiga Zen, Yoshihiko Nankaku, Akinobu Lee, and Keiichi Tokuda, "Bayesian context clustering using cross valid prior distribution for HMM-based speech recognition," Proceedings of Interspeech 2008, pp. 936-939, Brisbane, Australia, September 22-26, 2008.
  58. Sayaka Shiota, Kei Hashimoto, Heiga Zen, Yoshihiko Nankaku, Akinobu Lee, and Keiichi Tokuda, "Acoustic modeling based on model structure annealing for speech recognition," Proceedings of Interspeech 2008, pp. 932-935, Brisbane, Australia, September 22-26, 2008.
  59. Tatsuya Ito, Kei Hashimoto, Heiga Zen, Yoshihiko Nankaku, Akinobu Lee, and Keiichi Tokuda, "Speaker recognition based on variational Bayesian method," Proceedings of Interspeech 2008, pp. 1417-1420, Brisbane, Australia, September 22-26, 2008.
  60. Kei Hashimoto, Heiga Zen, Yoshihiko Nankaku, Akinobu Lee, and Keiichi Tokuda, "Hyperparameter estimation for speech recognition based on variational Bayesian approach," Proceedings of ASA & ASJ Joint Meeting, p. 3042, Honolulu, Hawaii, U.S.A., November 28-December 2, 2006.


国内研究会
  1. 西原美玖, 法野行哉, 橋本佳, 南角吉彦, 徳田恵一, "発声タイミングのずれを考慮したフレーム駆動型アテンション機構に基づく歌声合成," Technical Report of IEICE, vol. 122, no. 389, SP2022-42, pp. 19-24, 沖縄, February 28-March 1, 2022.
  2. 和田蒼汰, 法野行哉, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "歌声合成におけるニューラルボコーダの比較検討," Technical Report of IEICE, vol. 119, no. 321, SP2019-42, pp. 85-90, 東京, December 6, 2019.
  3. 次井貴浩, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "公共空間におけるスピーチプライバシー保護を目的とした合成音声によるサウンドマスキングの検討," Technical Report of IEICE, vol. 119, no. 321, SP2019-38, pp. 55-60, 東京, December 6, 2019.
  4. 大浦圭一郎, 中村和寛, 橋本佳, 南角吉彦, 徳田恵一, "周期・非周期信号を用いたDNNに基づくリアルタイム音声ボコーダ," IPSJ SIG Technical Report, vol. 2019-SLP-127, no. 34, pp. 1-6, 京都, June 22-23, 2019.
  5. 中尾健人, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "時間構造を考慮したニューラルネットワークに基づく音声合成における話者適応の検討," Technical Report of IEICE, vol. 118, no. 112, SP2018-11, pp. 53-58, 長野, June 28-29, 2018.
  6. 丹羽純平, 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "WaveNetに基づく声質変換の検討," Technical Report of IEICE, vol. 117, no. 393, SP2017-84, pp. 99-104, 東京, January 20-21, 2018.
  7. 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "メルケプストラムに基づくノイズシェーピング量子化法のWaveNet音声合成への適用," Technical Report of IEICE, vol. 117, no. 393, SP2017-83, pp. 93-98, 東京, January 20-21, 2018.
  8. 船戸涼平, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "DNN音声合成のためのパワーを考慮したトラジェクトリ学習," Technical Report of IEICE, vol. 117, no. 393, SP2017-74, pp. 43-48, 東京, January 20-21, 2018. (電子情報通信学会・日本音響学会 学生ポスター賞)
  9. 浅見太一, 大谷大和, 岡本拓磨, 小川哲司, 落合翼, 亀岡弘和, 駒谷和範, 高木信二, 高道慎之介, 俵直弘, 南條浩輝, 橋本佳, 福田 隆, 増村亮, 松田繁樹, 李晃伸, 渡部晋治 "国際会議ICASSP2017報告," IPSJ SIG Technical Report, vol. 2017-SLP-117, no. 3, pp. 1-8, 宮城, July 27-28, 2017.
  10. 浅見太一, 小川厚徳, 小川哲司, 大谷大和, 倉田岳人, 齋藤大輔, 塩田さやか, 篠原雄介, 鈴木雅之, 高道慎之介, 南條浩輝, 橋本佳, 樋口卓哉, 増村亮, 吉野幸一郎, 渡部晋治, "国際会議INTERSPEECH2016報告," IPSJ SIG Technical Report, vol. 2017-SLP-115, no. 7, pp. 1-7, 香川, February 17-18, 2017.
  11. 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "DNN音声合成における音響特徴量系列とその時間構造の同時モデル化," Technical Report of IEICE, vol. 116, no. 414, SP2016-76, pp. 71-76, 東京, January 21, 2017. (2016年度 電子情報通信学会・日本音響学会 音声研究会研究奨励賞)
  12. 浅井千明, 沢田慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "オーディオブックを用いた表現豊かな音声合成のための言語特徴量の検討," Technical Report of IEICE, vol. 116, no. 414, SP2016-70, pp. 35-40, 東京, January 21, 2017.
  13. 峯松信明, 秋田祐哉, 浅見太一, 伊藤信貴, 落合翼, 郡山知樹, 齋藤大輔, 塩田さやか, 篠崎隆宏, 鈴木雅之, 高木信二, 俵直弘, 橋本佳, 樋口卓哉, 福田隆, "国際会議ICASSP2016参加報告," IPSJ SIG Technical Report, vol. 2016-SLP-112, no. 5, pp. 1-6, 山形, July 28-30, 2016.
  14. 都築良成, 沢田慶, 橋本佳, 南角吉彦, 徳田恵一, "分離型格子HMMによる特徴量生成を用いた識別モデルに基づく画像認識," Technical Report of IEICE, vol. 116, no. 89, PRMU2016-36, pp. 7-12, 東京, June 13-14, 2016.
  15. 助川正人, 沢田慶, 橋本佳, 南角吉彦, 徳田恵一, "画像認識のための混合出力分布を用いた分離型格子HMMにおけるパラメータ共有構造の検討," Technical Report of IEICE, vol. 115, no. 456, PRMU2015-138, pp. 37-42, 福岡, February 21-22, 2016.
  16. 沢田慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "発音情報が未知の言語におけるテキスト音声合成システム構築法の評価," Technical Report of IEICE, vol. 115, no. 346, SP2015-80, pp. 93-98, 愛知, December 2-3, 2015.
  17. 橋本佳, 山岸順一, 越前功, "自動話者照合システムの性能を低下させるプライバシープリザービングサウンドの検討," Technical Report of IEICE, vol. 115, no. 146, SP2015-49, pp. 79-84, 諏訪, July 16-17, 2015.
  18. 岡本拓磨, 小川哲司, 落合翼, 柏木陽佑, 亀岡弘和, 木下慶介, 郡山知樹, 齋藤大輔, 篠崎隆宏, 高木信二, 滝口哲也, 太刀岡勇気, 俵直弘, 橋本佳, 藤本雅清, 松田繁樹, 三村正人, 吉岡拓也, 渡部晋治, "国際会議ICASSP2015参加報告," IPSJ SIG Technical Report, vol. 2015-SLP-107, no. 3, pp. 1-7, 諏訪, July 16-17, 2015.
  19. 虫鹿弘二, 中村和寛, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "HMM歌声合成における音声データの誤りに頑健なモデル化手法の検討," IPSJ SIG Technical Report, vol. 2015-MUS-106, no. 13, pp. 1-6, 甲府, March 2-3, 2015.
  20. 柘植彬史, 橋本佳, 南角吉彦, 徳田恵一, "変分ベイズ法による特徴量生成を用いた対数線形モデルに基づく話者認識," Technical Report of IEICE, vol. 113, no. 404, pp. 13-18, 名古屋, January 23-24, 2014.
  21. 牧野貴也, 高木信二, 橋本佳, 南角吉彦, 徳田恵一, "状態継続長制御に基づいた拡張分離型格子HMMによる変動に頑健な画像認識," Technical Report of IEICE, vol. 112, no. 441, pp. 149-154, 大阪, February 21-22, 2013.
  22. 沢田慶, 橋本佳, 南角吉彦, 徳田恵一, "変分ベイズ法を用いた可変固有画像モデルに基づく画像認識," Technical Report of IEICE, vol. 112, no. 441, pp. 155-160, 大阪, February 21-22, 2013.
  23. 沢田慶, 玉森聡, 橋本佳, 南角吉彦, 徳田恵一, "変分ベイズ法を用いた分離型2次元格子HMMに基づく顔画像認識," Technical Report of IEICE, vol. 111, no. 317, pp. 125-130, 長崎, November 24-25, 2011.
  24. Sayaka Shiota, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Bayesian speech recognition based on model structure integration," Technical Report of IEICE, vol. 111, no. 97, pp. 11-16, 名古屋, June 23-24, 2011. (2011年度 電子情報通信学会・日本音響学会 音声研究会研究奨励賞)
  25. Kei Hashimoto, Heiga Zen, Yoshihiko Nankaku, and Keiichi Tokuda, "Bayesian context clustering using cross validation for HMM-based speech synthesis," Technical Report of IEICE (音声言語シンポジウム), vol. 108, no. 338, pp. 73-78, 東京, December 9-10, 2008.
  26. Sayaka Shiota, Kei Hashimoto, Heiga Zen, Yoshihiko Nankaku, Akinobu Lee, and Keiichi Tokuda, "Speech recognition based on statistical models including multiple decision trees," Technical Report of IEICE (音声言語シンポジウム), vol. 108, no. 338, pp. 221-226, 東京, December 9-10, 2008.
  27. Tatsuya Ito, Kei Hashimoto, Heiga Zen, Yoshihiko Nankaku, Akinobu Lee, and Keiichi Tokuda, "Speaker recognition based on Gaussian mixture models using variational Bayesian method," Technical Report of IEICE (音声言語シンポジウム), vol. 108, no. 338, pp. 185-190, 東京, December 9-10, 2008.
  28. 塩田さやか, 橋本佳, 全炳河, 南角吉彦, 李晃伸, 徳田恵一, "音素決定木構造のアニーリングに基づく音響モデリング," Technical Report of IEICE, vol. 107, no. 165, pp. 67-72, 富山, July 26-27, 2007.


国内学会
  1. 青原光, 法野行哉, 橋本佳, 南角吉彦, 徳田恵一, "ソース・フィルタ型ニューラルボコーダにおける周期励振信号に関する考察," 日本音響学会2024年春季研究発表会講演論文集, pp. 813-816, March 6-8, 2024.
  2. 程塚海月, 橋本佳, 南角吉彦, 徳田恵一, "Noisy Studentによる半教師あり学習を用いた話者識別," 日本音響学会2024年春季研究発表会講演論文集, pp. 837-840, March 6-8, 2024.
  3. 中邑草太, 藤本崇人, 橋本佳, 南角吉彦, 徳田恵一, "55スタイルを選択可能なテキスト音声合成のための制御インタフェースの設計," 日本音響学会2023年秋季研究発表会講演論文集, pp. 1141-1144, September 26-28, 2023.
  4. 長谷川郁弥, 橋本佳, 南角吉彦, 徳田恵一, 田中由浩, 加藤昇平, "リアルタイム声質変換のための骨伝導を介した自己発声音のアクティブキャンセリング," 日本音響学会2023年秋季研究発表会講演論文集, pp. 1291-1294, September 26-28, 2023.
  5. 鈴木耀, 藤本崇人, 高木信二, 橋本佳, 南角吉彦, 徳田恵一, "出力遅延と時間伸縮変換を考慮したリアルタイム声質変換の検討," 日本音響学会2023年秋季研究発表会講演論文集, pp. 1081-1084, September 26-28, 2023.
  6. 福田至音, 法野行哉, 橋本佳, 南角吉彦, 徳田恵一, "基本周波数の制御性を考慮したピッチ抽出器を用いたニューラルボコーダ学習法の検討," 日本音響学会2023年秋季研究発表会講演論文集, pp. 1065-1068, September 26-28, 2023.
  7. 佐藤鈴夏, 藤本崇人, 法野行哉, 橋本佳, 南角吉彦, 徳田恵一, "基本周波数の制御性を考慮した特徴分離に基づくニューラルボコーダ構成法," 日本音響学会2023年秋季研究発表会講演論文集, pp. 1061-1064, September 26-28, 2023.
  8. 藤本崇人, 橋本佳, 南角吉彦, 徳田恵一, "V2Coder: 階層型 VAE に基づくニューラルボコーダ," 日本音響学会2023年秋季研究発表会講演論文集, pp. 1051-1054, September 26-28, 2023.
  9. 法野行哉, 橋本佳, 南角吉彦, 徳田恵一, "PeriodGrad: 基本周波数を制御可能な拡散確率モデルに基づくニューラルボコーダ," 日本音響学会2023年秋季研究発表会講演論文集, pp. 1045-1048, September 26-28, 2023.
  10. 田中琉聖, 山田淳司, 高木信二, 橋本佳, 南角吉彦, 徳田恵一, "自己教師あり学習による特徴抽出器とcoarse-fine変換を用いた少量学習データによる歌声変換," 日本音響学会2023年春季研究発表会講演論文集, pp. 705-708, March 15-17, 2023.
  11. 西原美玖, 法野行哉, 橋本佳, 南角吉彦, 徳田恵一, "Sequence-to-sequence歌声合成のための発声タイミングのモデル化に関する検討," 日本音響学会2022年秋季研究発表会講演論文集, pp. 1359-1362, September 14-16, 2022.
  12. 石田龍成, 藤本崇人, 橋本佳, 南角吉彦, 徳田恵一, "隠れセミマルコフモデルに基づく構造化アテンションを用いた音声合成におけるパラメータ共有構造の検討," 日本音響学会2022年秋季研究発表会講演論文集, pp. 1199-1202, September 14-16, 2022.
  13. 白木佑弥, 橋本佳, 南角吉彦, 徳田恵一, "デコーディング時の探索を考慮した系列識別学習によるEnd-to-End音声認識," 日本音響学会2022年秋季研究発表会講演論文集, pp. 1141-1144, September 14-16, 2022.
  14. 法野行哉, 橋本佳, 南角吉彦, 徳田恵一, "Sequence-to-sequence歌声合成のための音符位置に基づくアテンション機構の検討," 日本音響学会2022年秋季研究発表会講演論文集, pp. 1589-1592, September 14-16, 2022.
  15. 吉村建慶, 高木信二, 中村和寛, 大浦圭一郎, 法野行哉, 橋本佳, 南角吉彦, 徳田恵一, "微分可能なメルケプストラム合成フィルタを組み込んだend-to-end 音声合成システムの検討," 日本音響学会2022年秋季研究発表会講演論文集, pp. 1585-1588, September 14-16, 2022.
  16. 藤本崇人, 橋本佳, 南角吉彦, 徳田恵一, "半教師あり学習を用いた階層化生成モデルに基づく日本語 end-to-end 音声合成," 日本音響学会2022年秋季研究発表会講演論文集, pp. 1579-1582, September 14-16, 2022.
  17. 法野行哉, 高木信二, 橋本佳, 中村和寛, 大浦圭一郎, 南角吉彦, 徳田恵一, "非周期性指標を考慮したニューラルボコーダの学習," 日本音響学会2022年春季研究発表会講演論文集, pp. 973-976, March 9-11, 2022. (第52回粟屋潔学術奨励賞)
  18. 藤本崇人, 橋本佳, 南角吉彦, 徳田恵一, "隠れセミマルコフモデルによる構造化アテンションを用いた自己回帰型VAEに基づくsequence-to-sequence音声合成," 日本音響学会2022年春季研究発表会講演論文集, pp. 969-972, March 9-11, 2022.
  19. 佐々木一匡, 吉村建慶, 高木信二, 橋本佳, 南角吉彦, 徳田恵一, "深層学習に基づく音声合成における顔画像情報を用いたクロスモーダル話者適応," 日本音響学会2022年春季研究発表会講演論文集, pp. 935-938, March 9-11, 2022.
  20. 平光啓祐, 橋本佳, 南角吉彦, 徳田恵一, "深層学習に基づく音声合成における顔画像情報を用いたクロスモーダル話者適応," 日本音響学会2022年春季研究発表会講演論文集, pp. 905-906, March 9-11, 2022.
  21. 藤本崇人, 橋本佳, 南角吉彦, 徳田恵一, "隠れセミマルコフモデルによる構造化アテンションを用いた自己回帰型VAEに基づくsequence-to-sequence音声合成," 日本音響学会2021年秋季研究発表会講演論文集, pp. 915-918, September 7-9, 2021.
  22. 法野行哉, 加藤大誠, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "発声タイミングのずれを考慮したsequence-to-sequence歌声合成," 日本音響学会2021年秋季研究発表会講演論文集, pp. 911-914, September 7-9, 2021.
  23. 法野行哉, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "DNN歌声合成のための調子はずれ補正," 日本音響学会2021年秋季研究発表会講演論文集, pp. 907-910, September 7-9, 2021.
  24. 高木信二, 牛田光一, 橋本佳, 南角吉彦, 徳田恵一, "因子分析に基づくHSMMを利用した構造化アテンション音声合成," 日本音響学会2021年秋季研究発表会講演論文集, pp. 871-874, September 7-9, 2021.
  25. 藤本崇人, 橋本佳, 南角吉彦, 徳田恵一, "学習時と合成時の一貫性を考慮したVAEに基づく自己回帰型sequence-to-sequence音声合成," 日本音響学会2021年春季研究発表会講演論文集, pp. 947-950, March 10-12, 2021. (第22回学生優秀発表賞)
  26. 角谷健太, 吉村建慶, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "隠れセミマルコフモデルに基づく構造化アテンションを用いたSequence-to-Sequence音声合成," 日本音響学会2021年春季研究発表会講演論文集, pp. 943-946, March 10-12, 2021. (第22回学生優秀発表賞)
  27. 法野行哉, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "周期・非周期成分の分離に基づくニューラルボコーダによる音声波形のモデル化の検討," 日本音響学会2021年春季研究発表会講演論文集, pp. 861-864, March 10-12, 2021.
  28. 岩田康平, 高木信二, 橋本佳, 南角吉彦, 徳田恵一, "勾配ブースティング決定木を用いた音声合成手法の検討," 日本音響学会2021年春季研究発表会講演論文集, pp. 813-814, March 10-12, 2021.
  29. 平光啓祐, 橋本佳, 南角吉彦, 徳田恵一, "深層学習に基づく音声合成における顔画像を用いた話者適応," 第18回情報学ワークショップ, November 28, 2020.
  30. 車田智哉, 木下耕介, 吉村建慶, 橋本佳, 南角吉彦, 徳田恵一, "生成モデルの構造を組み込んだ系列変分オートエンコーダに基づく話者認識," 第18回情報学ワークショップ, November 28, 2020.
  31. 西村愛理, 藤本崇人, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "出力遅延を考慮したアテンション機構に基づくリアルタイム声質変換," 第18回情報学ワークショップ, November 28, 2020.
  32. 久野宏彰, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "音声合成における特徴的な発話スタイルの転移学習," 第18回情報学ワークショップ, November 28, 2020.
  33. 成田哲郎, 吉村建慶, 橋本佳, 南角吉彦, 徳田恵一, "ニューラルボコーダを用いた音声符号化手法の検討," 第18回情報学ワークショップ, November 28, 2020.
  34. 大谷眞史, 佐藤優介, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "音声合成における敵対的生成ネットワークを用いた複数言語・複数話者モデリングの検討," 第18回情報学ワークショップ, November 28, 2020.
  35. 佐々木一匡, 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "大規模音楽データを活用した汎用WaveNetボコーダ構成法の検討," 第18回情報学ワークショップ, November 28, 2020.
  36. 厚地俊哉, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "音声プライバシー保護のためのノンパラレル声質変換による話者匿名化の検討," 第18回情報学ワークショップ, November 28, 2020. (WiNF2020 奨励賞)
  37. 岩田康平, 高木信二, 橋本佳, 南角吉彦, 徳田恵一, "勾配ブースティング決定木を用いた高速な音声合成手法の検討," 第18回情報学ワークショップ, November 28, 2020.
  38. 前川遼太朗, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "深層学習に基づく楽器音合成における音響モデルの比較検討," 第18回情報学ワークショップ, November 28, 2020.
  39. 木村俊介, 橋本佳, 南角吉彦, 徳田恵一, "幾何学的変動に頑健な画像認識のための深層学習モデルの検討," 第18回情報学ワークショップ, November 28, 2020.
  40. 小林睦, 橋本佳, 南角吉彦, 徳田恵一, "統計モデルに基づくドライバ認知負荷推定の検討," 第18回情報学ワークショップ, November 28, 2020. (FRIIS優秀発表賞)
  41. 法野行哉, 坪井一菜, 沢田慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "階層化多重粒度生成モデルを用いた表現豊かな音声合成," 日本音響学会2020年秋季研究発表会講演論文集, pp. 791-794, September 9-11, 2020.
  42. 藤本崇人, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "感情音声合成のためのDirichlet VAE," 日本音響学会2020年秋季研究発表会講演論文集, pp. 789-790, September 9-11, 2020.
  43. 法野行哉, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "DNNに基づく音声ボコーダにおける周期・非周期成分のモデル化の検討," 日本音響学会2020年秋季研究発表会講演論文集, pp. 759-760, September 9-11, 2020.
  44. 大谷眞史, 佐藤優介, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "音声合成における敵対的生成ネットワークを用いた複数言語・複数話者モデリング," 日本音響学会2020年秋季研究発表会講演論文集, pp. 695-696, September 9-11, 2020.
  45. 藤本崇人, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "End-to-End音声合成のための階層化生成モデルに基づく半教師あり学習," 日本音響学会2020年春季研究発表会講演論文集, pp. 1039-1042, 埼玉, March 16-18, 2020.
  46. 大浦圭一郎, 高木信二, 中村和寛, 橋本佳, 南角吉彦, 徳田恵一, "周期・非周期信号を用いた敵対的生成ネットワークに基づくリアルタイム音声ボコーダ," 日本音響学会2019年秋季研究発表会講演論文集, pp. 997-998, 滋賀, September 4-6, 2019.
  47. 村田舜馬, 藤本崇人, 法野行哉, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "楽譜時間情報を用いたアテンション機構に基づく歌声合成の検討," 日本音響学会2019年秋季研究発表会講演論文集, pp. 943-944, 滋賀, September 4-6, 2019.
  48. 中村和寛, 高木信二, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "CNNに基づく歌声合成における計算量削減の検討," 日本音響学会2019年秋季研究発表会講演論文集, pp. 939-940, 滋賀, September 4-6, 2019.
  49. 角谷健太, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "DNNに基づく感情音声合成のための敵対的学習の検討," 日本音響学会2019年春季研究発表会講演論文集, pp. 1359-1360, 東京, March 5-7, 2019.
  50. 中村和寛, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "歌声合成におけるCNNに基づく音声パラメータ生成手法の検討," 日本音響学会2019年春季研究発表会講演論文集, pp. 1035-1038, 東京, March 5-7, 2019.
  51. 法野行哉, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "敵対的生成ネットワークを用いた歌声合成の検討," 日本音響学会2019年春季研究発表会講演論文集, pp. 1039-1040, 東京, March 5-7, 2019.
  52. 沢田慶, 坪井一菜, Wu Xianchao, Chen Zhan, 法野行哉, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "AI歌手りんな:ユーザ歌唱や楽譜を入力とする歌声合成システム," 日本音響学会2019年春季研究発表会講演論文集, pp. 1041-1044, 東京, March 5-7, 2019.
  53. 大浦圭一郎, 中村和寛, 橋本佳, 南角吉彦, 徳田恵一, "周期・非周期信号から駆動するディープニューラルネットワークに基づく音声ボコーダ," 日本音響学会2019年春季研究発表会講演論文集, pp. 1049-1052, 東京, March 5-7, 2019. (第46回粟屋潔学術奨励賞)
  54. 藤本崇人, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "日本語End-to-End音声合成における入力言語特徴量の影響," 日本音響学会2019年春季研究発表会講演論文集, pp. 1061-1062, 東京, March 5-7, 2019.
  55. 島田基樹, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "隠れセミマルコフモデルの構造を用いたDNNに基づく音声合成における計算量削減手法の検討," 日本音響学会2019年春季研究発表会講演論文集, pp. 1071-1072, 東京, March 5-7, 2019.
  56. 法野行哉, 村田舜馬, 中村和寛, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "Deep Neural Networkに基づく歌声合成システム -- Sinsy," 日本音響学会2018年秋季研究発表会講演論文集, pp. 1099-1102, 大分, September 12-14, 2018. (第18回学生優秀発表賞)
  57. 藤本崇人, 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "周期・非周期成分の分離に基づくWaveNetボコーダを用いた音声合成," 日本音響学会2018年秋季研究発表会講演論文集, pp. 1125-1126, 大分, September 12-14, 2018.
  58. 次井貴浩, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "公共空間におけるスマートデバイスを用いた音声入力のためのサウンドマスキングに関する検討," 日本音響学会2018年秋季研究発表会講演論文集, pp. 883-884, 大分, September 12-14, 2018.
  59. 吉村建慶, 小池なつみ, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "話者認識のためのSequential VAEに基づく特徴抽出の検討," 日本音響学会2018年秋季研究発表会講演論文集, pp. 1341-1344, 大分, September 12-14, 2018.
  60. 沢田慶, 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "Blizzard Challenge 2018のためのNITechテキスト音声合成システム," 日本音響学会2018年秋季研究発表会講演論文集, pp. 1091-1094, 大分, September 12-14, 2018.
  61. 法野行哉, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "隠れセミマルコフモデルの構造を利用したニューラルネットワークに基づく歌声合成," 日本音響学会2018年春季研究発表会講演論文集, pp. 247-248, 埼玉, March 13-15, 2018.
  62. 村田舜馬, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "DNNに基づく発声タイミングモデルを利用した歌声合成," 日本音響学会2018年春季研究発表会講演論文集, pp. 245-246, 埼玉, March 13-15, 2018.
  63. 沢田慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "Blizzard Challenge 2017のためのNITechテキスト音声合成システム," 日本音響学会2017年秋季研究発表会講演論文集, pp. 287-290, 愛媛, September 25-27, 2017.
  64. 法野行哉, 沢田慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, 近藤大介, 石川大輔, "音楽SNSの投稿データを利用した歌唱声質変換," 日本音響学会2017年秋季研究発表会講演論文集, pp. 209-210, 愛媛, September 25-27, 2017.
  65. Jumpei Niwa, Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, "WaveNet-based voice conversion," Proceedings of ASJ2017 autumn meeting, pp. 207-208, Ehime, September 25-27, 2017.
  66. 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "WaveNetにおけるメルケプストラムに基づくノイズシェーピング量子化法の適用," 日本音響学会2017年秋季研究発表会講演論文集, pp. 193-194, 愛媛, September 25-27, 2017. (第16回学生優秀発表賞)
  67. 村瀬栞, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "ニューラルネットワークに基づく音声合成における音響特徴量抽出条件の検討," 日本音響学会2017年春季研究発表会講演論文集, pp. 263-264, 神奈川, March 15-17, 2017.
  68. 市川裕詞, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "DNN-GMMハイブリッドモデルに基づく声質変換の検討," 日本音響学会2017年春季研究発表会講演論文集, pp. 233-234, 神奈川, March 15-17, 2017. (第15回学生優秀発表賞)
  69. 橋本佳, 山岸順一, 越前功, "話者照合性能を低下させるUBMに基づくプライバシー保護音の検討," 日本音響学会2016年春季研究発表会講演論文集, pp. 131-132, 神奈川, March 9-11, 2016.
  70. 大浦圭一郎, 橋本佳, 南角吉彦, 徳田恵一, "楽譜情報に基づく事前分布を用いたHMM歌声合成の検討," 日本音響学会2016年春季研究発表会講演論文集, pp. 245-246, 神奈川, March 9-11, 2016.
  71. 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "クラウドソーシングによる音声収集のための収録ソフトウェアの設計," 日本音響学会2016年春季研究発表会講演論文集, pp. 307-308, 神奈川, March 9-11, 2016.
  72. 鈴木達也, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "条件付確率場に基づく音声の基本周波数推定の検討," 日本音響学会2016年春季研究発表会講演論文集, pp. 279-280, 神奈川, March 9-11, 2016.
  73. 西村方成, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "Deep Neural Networkに基づく歌声合成の検討," 日本音響学会2016年春季研究発表会講演論文集, pp. 213-214, 神奈川, March 9-11, 2016.
  74. 保坂尚紀, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "ニューラルネットワークに基づく声質変換における系列内変動を考慮したトラジェクトリ学習," 日本音響学会2016年春季研究発表会講演論文集, pp. 239-240, 神奈川, March 9-11, 2016.
  75. 沢田慶, 伊神和輝, 浅井千明, 佐藤雄介, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "統計的パラメトリック音声合成のためのオーディオブックを用いた学習コーパス自動構築," 日本音響学会2016年春季研究発表会講演論文集, pp. 219-220, 神奈川, March 9-11, 2016. (第13回学生優秀発表賞)
  76. 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "ニューラルネットワークに基づく音声合成における系列内変動を考慮したトラジェクトリモデル学習," 日本音響学会2015年秋季研究発表会講演論文集, pp. 237-238, 福島, September 16-18, 2015.
  77. 中村和寛, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "音声の高帯域成分復元を考慮したメルケプストラム分析に基づくHMM音声合成の検討," 日本音響学会2015年秋季研究発表会講演論文集, pp. 233-234, 福島, September 16-18, 2015.
  78. 沢田慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "発音情報が未知の言語におけるテキスト音声合成システム構築法の検討," 日本音響学会2015年秋季研究発表会講演論文集, pp. 231-232, 福島, September 16-18, 2015.
  79. 橋本佳, 山岸順一, 越前功, "自動話者照合システムの性能を低下させるプライバシー保護音の検討," 日本音響学会2015年秋季研究発表会講演論文集, pp. 27-28, 福島, September 16-18, 2015.
  80. 橋本聖矢, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "複数の音響特徴量を用いた対数線形モデルに基づく話者認識の検討," 日本音響学会2015年秋季研究発表会講演論文集, pp. 25-26, 福島, September 16-18, 2015.
  81. 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "ニューラルネットワークに基づく音声合成における生成モデルの利用の検討," 日本音響学会2014年秋季研究発表会講演論文集, pp. 245-246, 北海道, September 3-5, 2014. (第37回粟屋潔学術奨励賞)
  82. 吉村建慶, 橋本佳, 南角吉彦, 徳田恵一, "因子分析に基づくHMM音声合成における基底クラスタリングの検討," 日本音響学会2014年秋季研究発表会講演論文集, pp. 239-240, 北海道, September 3-5, 2014.
  83. 神谷翔大, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "H/L型アクセント推定と音響モデリングを統合したHMM音声合成の検討," 日本音響学会2014年秋季研究発表会講演論文集, pp. 237-238, 北海道, September 3-5, 2014. (第10回学生優秀発表賞)
  84. 佐藤雄介, 中村和寛, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "表現語空間を用いた連結固有声法に基づくクロスリンガル話者適応の検討," 日本音響学会2014年春季研究発表会講演論文集, pp. 325-326, 東京, March 10-12, 2014.
  85. 鶴野高輝, 橋本佳, 南角吉彦, 徳田恵一, "GMM事後確率に基づいた重み付き変換関数による声質変換の検討," 日本音響学会2014年春季研究発表会講演論文集, pp. 327-328, 東京, March 10-12, 2014.
  86. 虫鹿弘二, 中村和寛, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "HMM歌声合成における音声データの誤りに頑健なモデル学習手法の検討," 日本音響学会2014年春季研究発表会講演論文集, pp. 335-336, 東京, March 10-12, 2014.
  87. 有竹貴士, 中村和寛, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "HMM音声合成におけるLSPに関連した特徴量表現の検討," 日本音響学会2014年春季研究発表会講演論文集, pp. 337-338, 東京, March 10-12, 2014.
  88. 中村和寛, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "低周波数標本化音声データの高帯域成分復元を考慮したメルケプストラム分析の検討," 日本音響学会2014年春季研究発表会講演論文集, pp. 339-340, 東京, March 10-12, 2014. (第9回学生優秀発表賞)
  89. 大浦圭一郎, 橋本佳, 南角吉彦, 徳田恵一, "状態レベルのコンテキストを用いたHMM音声合成の検討," 日本音響学会2014年春季研究発表会講演論文集, pp. 341-342, 東京, March 10-12, 2014.
  90. 柘植彬史, 橋本佳, 南角吉彦, 徳田恵一, "ベイズ統計量を用いた対数線形モデルに基づく話者認識," 日本音響学会2013年秋季研究発表会講演論文集, pp. 73-74, 愛知, September 25-27, 2013.
  91. 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "HMM音声合成のためのバイリンガルデータを用いた因子分析に基づくクロスリンガル話者適応," 日本音響学会2013年春季研究発表会講演論文集, pp. 267-268, 東京, March 13-15, 2013.
  92. Viviane de Franca Oliveira, Sayaka Shiota, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, "Cross-lingual speaker adaptation for HMM-based speech synthesis using joint-eigenvoices with a space of perceptual characteristics," 日本音響学会2013年春季研究発表会講演論文集, pp. 269-270, 東京, March 13-15, 2013.
  93. 中村和寛, 橋本佳, 南角吉彦, 徳田恵一, "HMM音声合成におけるメルケプストラム分析を統合した音響モデリングの検討," 日本音響学会2013年春季研究発表会講演論文集, pp. 289-290, 東京, March 13-15, 2013.
  94. 桑子修一, 高木信二, 橋本佳, 南角吉彦, 徳田恵一, "HMM音声合成における因子分析を用いた発話適応学習の検討," 日本音響学会2013年春季研究発表会講演論文集, pp. 291-292, 東京, March 13-15, 2013.
  95. 喜多村翔斗, 中村和寛, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, "音高正規化学習を用いたHMM歌声合成における調子外れの補正," 日本音響学会2013年春季研究発表会講演論文集, pp. 337-338, 東京, March 13-15, 2013.
  96. 服部貴文, 橋本佳, 南角吉彦, 徳田恵一, "複数のモデル構造を用いた変分ベイズ法に基づく話者認識," 日本音響学会2012年秋季研究発表会講演論文集, pp. 39-40, 長野, September 19-21, 2012.
  97. 橋本佳, 山岸順一, Peter Bell, Simon King, Steve Renals, 徳田恵一, "HMM音声合成における変分ベイズ法に基づく線形回帰," 日本音響学会2012年春季研究発表会講演論文集, pp. 403-404, 神奈川, March 13-15, 2012.
  98. 沢田慶, 玉森聡, 橋本佳, 南角吉彦, 徳田恵一, "変分ベイズ法を用いた分離型2次元格子HMMの学習におけるアニーリング制御の適用," 情報処理学会, pp. 409-410, 名古屋, March 6-8, 2012.
  99. 橋本佳, 南角吉彦, 徳田恵一, "ベイズ音声合成における事前分布とモデル構造の話者間共有," 日本音響学会2011年秋季研究発表会講演論文集, pp. 345-348, 島根, September 20-22, 2011.
  100. 橋本佳, 山岸順一, William Byrne, Simon King, 徳田恵一, "音声翻訳における機械翻訳・音声合成の性能評価および分析," 日本音響学会2011年春季研究発表会講演論文集, pp. 315-316, 東京, March 9-11, 2011.
  101. 塩田さやか, 橋本佳, 南角吉彦, 徳田恵一, "複数のパラメータ共有構造を考慮したベイズ基準による音響モデリングの検討," 日本音響学会2011年春季研究発表会講演論文集, pp. 21-24, 東京, March 9-11, 2011. (第3回学生優秀発表賞)
  102. 橋本佳, 南角吉彦, 徳田恵一, "学習・合成過程が統合されたベイズ音声合成," 日本音響学会2010年秋季研究発表会講演論文集, pp. 243-244, 大阪, September 14-16, 2010.
  103. 橋本佳, 南角吉彦, 徳田恵一, "ベイズ基準によるHSMM音声合成の評価," 日本音響学会2009年秋季研究発表会講演論文集, pp. 257-258, 福島, September 15-17, 2009.
  104. 塩田さやか, 橋本佳, 南角吉彦, 徳田恵一, "Training Algorithm Based on Deterministic Annealing for Bayesian Speech Recognition," 日本音響学会2009年秋季研究発表会講演論文集, pp. 3-6, 福島, September 15-17, 2009.
  105. 橋本佳, 南角吉彦, 徳田恵一, "ベイズ基準による隠れセミマルコフモデルに基づく音声合成," 日本音響学会2009年春季研究発表会講演論文集, pp. 303-304, 東京, March 17-19, 2009.
  106. 橋本佳, 全炳河, 南角吉彦, 徳田恵一, "クロスバリデーションを用いたベイズ基準によるHMM音声合成," 日本音響学会2008年秋季研究発表会講演論文集, pp. 251-252, 博多, September 10-12, 2008.
  107. 塩田さやか, 橋本佳, 全炳河, 南角吉彦, 李晃伸, 徳田恵一, "複数の音素決定木を用いた音声認識の検討," 日本音響学会2008年秋季研究発表会講演論文集, pp. 125-126, 博多, September 10-12, 2008.
  108. 橋本佳, 全炳河, 南角吉彦, 李晃伸, 徳田恵一, "クロスバリデーションを用いたベイズ基準によるコンテキストクラスタリング," 日本音響学会2008年春季研究発表会講演論文集, pp. 69-70, 千葉, March 17-19, 2008.
  109. 伊藤達也, 橋本佳, 全炳河, 南角吉彦, 李晃伸, 徳田恵一, "変分ベイズ法に基づく話者認識," 日本音響学会2008年春季研究発表会講演論文集, pp. 143-144, 千葉, March 17-19, 2008.
  110. 橋本佳, 全炳河, 南角吉彦, 李晃伸, 徳田恵一, "変分ベイズ法に基づく音声認識のためのハイパーパラメータの共有構造," 日本音響学会2007年秋季研究発表会講演論文集, pp. 139-142, 山梨, September 19-21, 2007.
  111. 塩田さやか, 橋本佳, 全炳河, 南角吉彦, 李晃伸, 徳田恵一, "音声認識のための音素決定木構造のアニーリングに基づく音響モデリング," 日本音響学会2007年秋季研究発表会講演論文集, pp. 143-146, 山梨, September 19-21, 2007.


図書
  1. 橋本佳(分担執筆), "人工知能学大辞典(音声合成(HMM 合成方式))," 人工知能学会編, 共立出版, pp. 785-787, 2017年7月7日. (ISBN:978-4-320-12420-2)
  2. Keiichi Tokuda, Akinobu Lee, Yoshihiko Nankaku, Keiichiro Oura, Kei Hashimoto, Daisuke Yamamoto, Ichi Takumi, Takahiro Uchiya, Shuhei Tsutsumi, Steve Renals, and Junichi Yamagishi(分担執筆), "User generated dialogue systems: uDialogue," Human Harmonized Information Technology, Volume 2, Springer, pp. 77-114, May, 2017. (ISBN:978-4-431-56533-8) (DOI: 10.1007/978-4-431-56535-2)
  3. 橋本佳(分担執筆), "音響学入門ペディア(Q34 統計的音声合成の仕組みを教えてください)," 日本音響学会編, コロナ社, pp. 136-139, 2017年3月15日. (ISBN:978-4-339-00895-1)


学位論文
  1. Kei Hashimoto, "Statistical models of machine translation, speech recognition, and speech synthesis for speech-to-speech translation," 博士論文, 2011年2月.
  2. 橋本佳, "ベイズ基準による音声認識のための事前分布推定法の検討," 名古屋工業大学大学院修士論文, 2008年2月.
  3. 橋本佳, "ベイズ的アプローチに基づく音声認識における事前分布の検討," 名古屋工業大学卒業論文, 2006年2月.


講演
  1. 橋本佳, "音声合成における深層学習," 日本音響学会2017年秋季研究発表会ビギナーズセミナー, 愛媛, 2017年9月25日.