発表論文 - 2018

論文誌

  1. Kei Sawada, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, ``A Bayesian framework for image recognition based on hidden Markov eigen-image models,'' IEEJ Transactions on Electrical and Electronic Engineering, Vol. 13, Issue 9, pp. 1335-1347, September, 2018. (Full paper peer reviewed) link
  2. Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``Mel-cepstrum-based quantization noise shaping applied to neural-network-based speech waveform synthesis,'' IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 26, no. 7, pp. 1173-1180, July, 2018. (Full paper peer reviewed) link
  3. Kei Sawada, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``Constructing text-to-speech systems for languages with unknown pronunciations,'' Acoustical Science and Technology, Vol. 39, Issue 2, pp. 119-129, March, 2018. (Full paper peer reviewed) link
  4. 大浦圭一郎, 橋本佳, 南角吉彦, 徳田恵一, ``隠れマルコフモデルに基づく日本語音声合成ソフトウェア入門,'' システム制御情報学会誌, vol. 62, no. 2, pp. 57-62, 2018年2月. link

国際会議

  1. Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``WaveNet-based zero-delay lossless speech coding,'' 2018 IEEE Workshop on Spoken Language Technology (SLT 2018), pp. 153-158, Athens, Greece, December 2018. (Full paper peer reviewed)
  2. Koki Senda, Yukiya Hono, Kei Sawada, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``Singing voice conversion using posted waveform data on music social media,'' Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC 2018), pp. 1913-1917, Honolulu, Hawaii, November, 2018. (Full paper peer reviewed)
  3. Yukiya Hono, Shumma Murata, Kazuhiro Nakamura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``Recent development of the DNN-based singing voice synthesis system -- Sinsy,'' Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC 2018), pp. 1003-1009, Honolulu, Hawaii, November, 2018. (Full paper peer reviewed)
  4. Takato Fujimoto, Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``Speech synthesis using WaveNet vocoder based on periodic/aperiodic decomposition,'' Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC 2018), pp. 644-648, Honolulu, Hawaii, November, 2018. (Full paper peer reviewed)
  5. Kento Nakao, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``Speaker adaptation for speech synthesis based on deep neural networks using hidden semi-Markov model structures,'' Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC 2018), pp. 638-643, Honolulu, Hawaii, November, 2018. (Full paper peer reviewed)
  6. Takenori Yoshimura, Natsumi Koike, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``Discriminative feature extraction based on sequential variational autoencoder for speaker recognition,'' Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC 2018), pp. 1742-1746, Honolulu, Hawaii, November, 2018. (Full paper peer reviewed)
  7. Takayuki Kasugai, Yoshinari Tsuzuki, Kei Sawada, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``Image recognition based on convolutional neural networks using features generated from separable lattice hidden Markov models'' Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC 2018), pp. 324-328, Honolulu, Hawaii, November, 2018. (Full paper peer reviewed)
  8. Kei Sawada, Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``The NITech text-to-speech system for the Blizzard Challenge 2018,'' Blizzard Challenge 2018 Workshop, Hyderabad, India, September, 2018. (Full paper peer reviewed) link
  9. Eiji Ichikawa, Kei Sawada, Kei Hashimoto, Yoshihiko Nankaku, and Keiichi Tokuda, ``Image recognition based on separable lattice HMMs using a deep neural network for output probability distribution,'' 2018 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP), pp. 3021-3025, Calgary, Canada, April, 2018. (Full paper peer reviewed)
  10. Jumpei Niwa, Takenori Yoshimura, Kei Hashimoto, Keiichiro Oura, Yoshihiko Nankaku, and Keiichi Tokuda, ``Statistical voice conversion based on WaveNet,'' 2018 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP), pp. 5289-5293, Calgary, Canada, April, 2018. (Full paper peer reviewed)

研究会

  1. 中尾健人, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``時間構造を考慮したニューラルネットワークに基づく音声合成における話者適応の検討,'' 音声研究会, vol. 118, no. 112, SP2018-11, pp. 53-58, 長野, 日本, 2018年6月.
  2. 丹羽純平, 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``WaveNetに基づく声質変換の検討,'' 音声研究会, vol. 117, no. 393, SP2017-84, pp. 99-104, 東京, 日本, 2018年1月.
  3. 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``メルケプストラムに基づくノイズシェーピング量子化法のWaveNet音声合成への適用,'' 音声研究会, vol. 117, no. 393, SP2017-83, pp. 93-98, 東京, 日本, 2018年1月.
  4. 船戸涼平, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``DNN音声合成のためのパワーを考慮したトラジェクトリ学習,'' 音声研究会, vol. 117, no. 393, SP2017-74, pp. 43-48, 東京, 日本, 2018年1月.(音声研究会学生ポスター賞)

全国大会

  1. 吉村建慶, 小池なつみ, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``話者認識のためのSequential VAEに基づく特徴抽出の検討,'' 日本音響学会2018年秋季研究発表会, pp. 1341-1344, 大分, 日本, 2018年9月.
  2. 次井貴浩, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``公共空間におけるスマートデバイスを用いた音声入力のためのサウンドマスキングに関する検討,'' 日本音響学会2018年秋季研究発表会, pp. 883-884, 大分, 日本, 2018年9月.
  3. 藤本崇人, 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``周期・非周期成分の分離に基づくWaveNetボコーダを用いた音声合成,'' 日本音響学会2018年秋季研究発表会, pp. 1125-1126, 大分, 日本, 2018年9月.
  4. 法野行哉, 村田舜馬, 中村和寛, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``Deep Neural Networkに基づく歌声合成システム -- Sinsy,'' 日本音響学会2018年秋季研究発表会, pp. 1099-1102, 大分, 日本, 2018年9月.
  5. 沢田慶, 吉村建慶, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``Blizzard Challenge 2018のためのNITechテキスト音声合成システム,'' 日本音響学会2018年秋季研究発表会, pp. 1091-1094, 大分, 日本, 2018年9月.
  6. 法野行哉, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``隠れセミマルコフモデルの構造を利用したニューラルネットワークに基づく歌声合成,'' 日本音響学会2018年春季研究発表会, pp. 247-248, 埼玉, 日本, 2018年3月.
  7. 村田舜馬, 橋本佳, 大浦圭一郎, 南角吉彦, 徳田恵一, ``DNNに基づく発声タイミングモデルを利用した歌声合成,'' 日本音響学会2018年春季研究発表会, pp. 245-246, 埼玉, 日本, 2018年3月.
  8. 沢田慶, 徳田恵一, Simon King, Alan W Black, ``Blizzard Machine Learning Challenge 2017の概要,'' 日本音響学会2018年春季研究発表会, pp. 1509-1510, 埼玉, 日本, 2018年3月.

学位論文

  1. Takenori Yoshimura, ``Acoustic and waveform modeling for statistical speech synthesis,'' Doctor thesis, Nagoya Institute of Technology, August, 2018.
  2. Kei Sawada, ``A statistical approach to speech synthesis and image recognition based on hidden Markov models,'' Doctor thesis, Nagoya Institute of Technology, February, 2018.
  3. 村田舜馬, ``ディープニューラルネットワークに基づく歌声合成における発声タイミングのモデル化,'' 卒業論文, 名古屋工業大学, 2018年2月.
  4. 藤本崇人, ``ディープニューラルネットワークに基づく音声合成における周期・非周期成分の分離モデル化,'' 卒業論文, 名古屋工業大学, 2018年2月.
  5. 中尾健人, ``時間構造を考慮したニューラルネットワークに基づく音声合成における話者適応,'' 卒業論文, 名古屋工業大学, 2018年2月.
  6. 次井貴浩, ``スマートフォンを用いた音声認識におけるプライバシー感を考慮したマスキング音の調査,'' 卒業論文, 名古屋工業大学, 2018年2月.
  7. 千田航己, ``音楽SNSに投稿された歌声データを利用した歌唱声質変換,'' 卒業論文, 名古屋工業大学, 2018年2月.
  8. 島田基樹, ``ディープニューラルネットワークに基づく音声合成のための音素境界決定法の検討,'' 卒業論文, 名古屋工業大学, 2018年2月.
  9. 小嶋康雅, ``Connectionist Temporal Classification に基づく音声認識における学習条件の検討,'' 卒業論文, 名古屋工業大学, 2018年2月.
  10. 春日井貴之, ``分離型格子HMMによる特徴量生成を用いた畳み込みニューラルネットワークに基づく画像認識,'' 卒業論文, 名古屋工業大学, 2018年2月.
  11. 森裕都, ``音声対話システムにおけるWFSTに基づく音声認識と応答選択の統合,'' 修士論文, 名古屋工業大学, 2018年2月.
  12. 村山賢汰, ``ユーザの音声データ提供に関するインセンティブを考慮した音声合成ウェブサービスの設計,'' 修士論文, 名古屋工業大学, 2018年2月.
  13. 水野隆, ``音楽SNSの投稿波形を収録した大規模データベースにおけるデータ分析と歌声区間検出,'' 修士論文, 名古屋工業大学, 2018年2月.
  14. 保坂尚紀, ``DNNに基づく声質変換における系列内変動を考慮したトラジェクトリ学習,'' 修士論文, 名古屋工業大学, 2018年2月.
  15. 船戸涼平, ``DNN音声合成のためのパワーを評価関数に組み込んだトラジェクトリ学習,'' 修士論文, 名古屋工業大学, 2018年2月.
  16. 藤下太一, ``ニューラルネットワークに基づく音声波形直接モデル化手法の検討,'' 修士論文, 名古屋工業大学, 2018年2月.
  17. 西村方成, ``ディープニューラルネットワークに基づく歌声合成における音高正規化,'' 修士論文, 名古屋工業大学, 2018年2月.
  18. 都築良成, ``分離型格子HMMによる特徴量生成を用いたニューラルネットワークに基づく画像認識,'' 修士論文, 名古屋工業大学, 2018年2月.

過去の発表論文





トップ   編集 凍結 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS