• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Ninomiya Hiroshi  二宮 洋

ORCIDConnect your ORCID iD *help
… Alternative Names

HIROSHI Ninomiya  二宮 洋

二宮 洋  ニノミヤ ヒロシ

Less
Researcher Number 60308335
Other IDs
External Links
Affiliation (Current) 2025: 湘南工科大学, 情報学部, 教授
Affiliation (based on the past Project Information) *help 2023: 湘南工科大学, 情報学部, 教授
2013 – 2022: 湘南工科大学, 工学部, 教授
2011 – 2012: 湘南工科大学, 工学部, 准教授
2006: 湘南工科大学, 工学部, 准教授
2005: 湘南工科大学, 工学部, 助教授
Review Section/Research Field
Principal Investigator
Basic Section 61040:Soft computing-related / Soft computing / Intelligent informatics / Computer system/Network
Keywords
Principal Investigator
学習アルゴリズム / ニューラルネットワーク / 準ニュートン法 / ネステロフの加速勾配法 / モーメント法 / 時空間2次ダイナミクスモデル / 最適化アルゴリズム / 慣性付2次近似勾配モデル / 適応的モーメント法 / 勾配ダイナミクスモデル … More / 不動点加速法 / 分散学習 / 分割学習 / 凸化誤差関数 / 勾配学習アルゴリズム / 大規模データ / 勾配法 / バッチ学習法 / オンライン学習法 / 並列アルゴリズム / バッチ学習 / オンライン学習 / シミュレーティッドアニーリング手法 / 組み合わせ最適化問題 / タブーサーチ手法 / Simulated Annealing手法 / 組合せ最適化問題 / 3次元実装技術 / 3次元VLSI / 3次元パッキング問題 Less
  • Research Projects

    (6 results)
  • Research Products

    (98 results)
  • Co-Researchers

    (1 People)
  •  時空間2次ダイナミクスモデルによる強非線形ビックデータの高精度かつ高速な深層学習Principal Investigator

    • Principal Investigator
      二宮 洋
    • Project Period (FY)
      2023 – 2025
    • Research Category
      Grant-in-Aid for Scientific Research (C)
    • Review Section
      Basic Section 61040:Soft computing-related
    • Research Institution
      Shonan Institute of Technology
  •  Learning of Strongly Nonlinear Big Data by Momentum Quasi-Newton Method combined with Stochastic Variance ReductionPrincipal Investigator

    • Principal Investigator
      Ninomiya Hiroshi
    • Project Period (FY)
      2020 – 2023
    • Research Category
      Grant-in-Aid for Scientific Research (C)
    • Review Section
      Basic Section 61040:Soft computing-related
    • Research Institution
      Shonan Institute of Technology
  •  Acceleration Technique of Learning Algorithm for Large-Scale, Strongly Nonlinear Data using Quadratic Approximate Gradient Models with Inertia TermPrincipal Investigator

    • Principal Investigator
      Ninomiya Hiroshi
    • Project Period (FY)
      2017 – 2021
    • Research Category
      Grant-in-Aid for Scientific Research (C)
    • Research Field
      Soft computing
    • Research Institution
      Shonan Institute of Technology
  •  A Training Algorithm based on Gradient Method for Big Data Including High-nonlinearityPrincipal Investigator

    • Principal Investigator
      Ninomiya Hiroshi
    • Project Period (FY)
      2014 – 2016
    • Research Category
      Grant-in-Aid for Scientific Research (C)
    • Research Field
      Soft computing
    • Research Institution
      Shonan Institute of Technology
  •  Robust training based on combined online/batch training techniquesPrincipal Investigator

    • Principal Investigator
      HIROSHI Ninomiya
    • Project Period (FY)
      2011 – 2013
    • Research Category
      Grant-in-Aid for Scientific Research (C)
    • Research Field
      Intelligent informatics
    • Research Institution
      Shonan Institute of Technology
  •  3次元パッキング問題と3次元VLSI実装技術への応用に関する研究Principal Investigator

    • Principal Investigator
      二宮 洋
    • Project Period (FY)
      2005 – 2006
    • Research Category
      Grant-in-Aid for Young Scientists (B)
    • Research Field
      Computer system/Network
    • Research Institution
      Shonan Institute of Technology

All 2024 2023 2022 2021 2020 2019 2018 2017 2016 2014 2013 2012 2011 2007 2005 Other

All Journal Article Presentation

  • [Journal Article] A Study on Accelerating of Inertial Newton Algorithm for Neural Network Training2023

    • Author(s)
      S. Mahboubi, R. Yamatomi, Y. Samejima and H. Ninomiya
    • Journal Title

      Lecture Notes in Networks and Systems

      Volume: 803 Pages: 177-186

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Journal Article] A Study on Accelerating of Inertial Newton Algorithm for Neural Network Training2023

    • Author(s)
      S. Mahboubi, R. Yamatomi, Y. Samejima and H. Ninomiya
    • Journal Title

      Proc. All World Conference on Smart Trends in Systems, Security and Sustainability(WorldS4) 2023, Lecture Notes in Networks and Systems

      Volume: 803 Pages: 177-186

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23K11267
  • [Journal Article] Generative Model of Suitable Meme Sentences for Images Using AutoEncoder2023

    • Author(s)
      R. Yamatomi, S. Mahboubi and H. Ninomiya
    • Journal Title

      Proc. PRICAI

      Volume: 14325 Pages: 237-248

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Journal Article] On the study of the memory-less quasi-Newton method with momentum term for neural network training2022

    • Author(s)
      Mahboubi Shahrzad、Yamatomi Ryo、S Indrapriyadarsini、Ninomiya Hiroshi、Asai Hideki
    • Journal Title

      NOLTA

      Volume: 13 Issue: 2 Pages: 271-276

    • DOI

      10.1587/nolta.13.271

    • ISSN
      2185-4106
    • Language
      English
    • Peer Reviewed / Open Access
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] addHessian: Combining quasi-Newton method with first-order method for neural network training2022

    • Author(s)
      Yasuda Sota、Indrapriyadarsini S.、Ninomiya Hiroshi、Kamio Takeshi、Asai Hideki
    • Journal Title

      NOLTA

      Volume: 13 Issue: 2 Pages: 361-366

    • DOI

      10.1587/nolta.13.361

    • ISSN
      2185-4106
    • Language
      English
    • Peer Reviewed / Open Access
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Journal Article] Accelerating Symmetric Rank-1 Quasi-Newton Method with Nesterov’s Gradient for Training Neural Networks2021

    • Author(s)
      Indrapriyadarsini S.、Mahboubi Shahrzad、Ninomiya Hiroshi、Kamio Takeshi、Asai Hideki
    • Journal Title

      Algorithms

      Volume: 15 Issue: 1 Pages: 6-6

    • DOI

      10.3390/a15010006

    • Peer Reviewed / Open Access
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] Momentum acceleration of quasi-Newton based optimization technique for neural network training2021

    • Author(s)
      Mahboubi Shahrzad、S Indrapriyadarsini、Ninomiya Hiroshi、Asai Hideki
    • Journal Title

      NOLTA

      Volume: 12 Issue: 3 Pages: 554-574

    • DOI

      10.1587/nolta.12.554

    • NAID

      130008060799

    • ISSN
      2185-4106
    • Language
      English
    • Peer Reviewed / Open Access
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] Acceleration Technique of Two-Phase Quasi-Newton method with Momentum for Optimization Problem2020

    • Author(s)
      M. D. Sudeera H. Gunathilaka, Mahboubi, Shahrzad and Ninomiya, H
    • Journal Title

      Proc. IARIA The Twelfth International Conference on Information, Process, and Knowledge Management, eKNOW 2020

      Volume: N/A Pages: 17-19

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] aSNAQ : An Adaptive Stochastic Nesterov’s Accelerated Quasi-Newton Method for Training RNNs2020

    • Author(s)
      Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hideki
    • Journal Title

      IEICE NOLTA

      Volume: vol.11, issue 4 Pages: 409-421

    • NAID

      130007921335

    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Journal Article] A Nesterov's Accelerated quasi-Newton method for Global Routing using Deep Reinforcement Learning2020

    • Author(s)
      Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, Takeshi Kamio and Asai, Hideki
    • Journal Title

      Proc. NOLTA 2020

      Volume: N/A Pages: 251-254

    • NAID

      130008060726

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] A Nesterov's Accelerated quasi-Newton method for Global Routing using Deep Reinforcement Learning2020

    • Author(s)
      Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, Takeshi Kamio and Asai, Hideki
    • Journal Title

      Proc. NOLTA 2020

      Volume: N/A Pages: 251-254

    • NAID

      130008060726

    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Journal Article] aSNAQ : An Adaptive Stochastic Nesterov’s Accelerated Quasi-Newton Method for Training RNNs2020

    • Author(s)
      Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hideki
    • Journal Title

      IEICE NOLTA

      Volume: vol.11, issue 4 Pages: 409-421

    • NAID

      130007921335

    • Peer Reviewed / Open Access
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] A Robust quasi-Newton Training with Adaptive Momentum for Microwave Circuit Models in Neural Networks2020

    • Author(s)
      Mahboubi, Shahrzad, Sendilkkumaar, Indrapriyadarsini,Ninomiya, Hiroshi,and Asai, Hideki
    • Journal Title

      Journal of Signal Processing

      Volume: vol. 24, no. 1 Pages: 11-17

    • NAID

      130007787542

    • Peer Reviewed / Open Access
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] An Adaptive Stochastic Nesterov Accelerated Quasi Newton Method for Training RNNs2019

    • Author(s)
      Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hideki
    • Journal Title

      Proc. NOLTA 2019

      Volume: N/A Pages: 208-211

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] A Stochastic Variance Reduced Nesterov’s Accelerated Quasi-Newton Method2019

    • Author(s)
      Yasuda, Sota, Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hidek
    • Journal Title

      Proc. IEEE/ICMLA 2019

      Volume: N/A Pages: 1874-1879

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] A Stochastic Quasi-Newton Method with Nesterov’s Accelerated Gradient2019

    • Author(s)
      Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hideki
    • Journal Title

      Proc. The European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases, ECML/PKDD 2019

      Volume: N/A

    • Peer Reviewed / Open Access
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] Momentum acceleration of quasi-Newton Training for Neural Networks2019

    • Author(s)
      Mahboubi, Shahrzad, Sendilkkumaar, Indrapriyadarsini,Ninomiya, Hiroshi,and Asai, Hideki
    • Journal Title

      Proc. The 16th Pacific Rim International Conference on Artificial Intelligence, PRICAI 2019

      Volume: N/A Pages: 268-281

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] Implementation of a modified Nesterov's Accelerated quasi-Newton Method on Tensorflow2018

    • Author(s)
      Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hideki
    • Journal Title

      Proc. IEEE/ICMLA 2018

      Volume: 1 Pages: 1147-1154

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] A Novel Quasi-Newton with Momentum Training for Microwave Circuit Models Using Neural Networks2018

    • Author(s)
      Mahboubi, Shahrzad and Ninomiya, H.
    • Journal Title

      Proc. IEEE/ICECS 2018

      Volume: 1 Pages: 629-632

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] A Novel Training Algorithm based on Limited-Memory quasi-Newton Method with Nesterov’s Accelerated Gradient in Neural Networks and its Application to Highly-Nonlinear Modeling of Microwave Circuit2018

    • Author(s)
      Mahboubi, Shahrzad and Ninomiya, H.
    • Journal Title

      International Journal On Advances in Software

      Volume: vol.11, no.3&4 Pages: 323-334

    • Peer Reviewed / Open Access
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] A Novel Training Algorithm based on Limited-Memory quasi-Newton Method with Nesterov's Accelerated Gradient for Neural Networks2018

    • Author(s)
      Mahboubi, Shahrzad and Ninomiya, Hiroshi
    • Journal Title

      Proc. IARIA The Tenth International Conference on Future Computational Technologies and Applications, FUTURE COMPUTING 2018

      Volume: 1 Pages: 1-2

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] A Novel quasi-Newton-based Optimization for Neural Network Training incorporating Nesterov's Accelerated Gradient2017

    • Author(s)
      Hiroshi Ninomiya
    • Journal Title

      IEICE NOLTA

      Volume: vol.E8-N Pages: 289-301

    • NAID

      130006110759

    • Peer Reviewed / Open Access
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Journal Article] Neural Network Training based on quasi-Newton Method using Nesterov’s Accelerated Gradient2016

    • Author(s)
      Hiroshi Ninomiya
    • Journal Title

      Proc. IEEE TENCON 2016

      Volume: - Pages: 51-54

    • Peer Reviewed / Acknowledgement Compliant
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Journal Article] A Novel quasi-Newton-based Training using Nesterov's Accelerated Gradient for Neural Networks2016

    • Author(s)
      Hiroshi Ninomiya
    • Journal Title

      Proc. 2016 International Conference on Artificial Neural Networks (ICANN'16)

      Volume: - Pages: 540-540

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Journal Article] DRDLC Generating t-Term Boolean Functions Based on DG-CNTFETs2014

    • Author(s)
      Manabu Kobayashi, Hiroshi Ninomiya, Yasuyuki Miura and Shigeyoshi Watanabe
    • Journal Title

      Proc. 2014 RISP International Workshop on Nonlinear Circuits, Communications and Signal Processing

      Volume: 1 Pages: 81-84

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Distributed Robust Training of Multilayer Neural Networks Using Normalized Risk-Averting Error2014

    • Author(s)
      Hiroshi Ninomiya
    • Journal Title

      Proc. 2014 IEEE Symposium Series on Computational Intelligence (IEEE/SSCI'14 and IEEE/CCMB'14)

      Volume: 1 Pages: 134-140

    • Peer Reviewed / Acknowledgement Compliant
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Journal Article] Reconfigurable Circuit Design based on Arithmetic Logic Unit Using Double-Gate CNTFETs2014

    • Author(s)
      Hiroshi Ninomiya, Manabu Kobayashi, Yasuyuki Miura and Shigeyoshi Watanabe
    • Journal Title

      IEICE Trans. on Fundamentals.

      Volume: E97-A Pages: 675-678

    • NAID

      130003394763

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Reconfigurable Dynamic Logic Circuit Generating t-Term Boolean Functions Based on Double-Gate CNTFETs2014

    • Author(s)
      Manabu Kobayashi, Hiroshi Ninomiya, Yasuyuki Miura and Shigeyoshi Watanabe
    • Journal Title

      IEICE Trans. on Fundamentals.

      Volume: E97-A Pages: 1051-1058

    • NAID

      130004770827

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Journal Article] Reconfigurable Circuit Design based on Arithmetic Logic Unit Using Double-Gate CNTFETs2014

    • Author(s)
      Ninomiya, H., Kobayashi, M., Miura, Y . and Watanabe S
    • Journal Title

      IEICE Trans. on Fundamentals

      Volume: vol.E97-A,no.2 Pages: 675-678

    • NAID

      130003394763

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Dynamic Sample Size Selection based quasi-Newton Training for Highly Nonlinear Function Approximation using Multilayer Neural Networks2013

    • Author(s)
      Ninomiya, H
    • Journal Title

      Proc. IEEE&INNS/IJCNN'13

      Pages: 1932-1937

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Dynamic Sample Size Selection based quasi-Newton Training for Highly Nonlinear Function Approximation using Multilayer Neural Networks2013

    • Author(s)
      Hiroshi Ninomiya
    • Journal Title

      Proc. IEEE&INNS/IJCNN'13

      Volume: 1 Pages: 1932-1937

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Reduced Reconfigurable Logic Circuit Design based on Double Gate CNTFETs using Ambipolar Binary Decision Diagram2013

    • Author(s)
      Ninomiya, H., Kobayashi, M. and Watanabe S
    • Journal Title

      IEICE Trans. on Fundamentals

      Volume: vol.E96-A,no.1 Pages: 356-359

    • NAID

      10031167126

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] A Linear Time ADMM Decoding for LDPC Codes over MIMO Channels2013

    • Author(s)
      Kobayashi, M., Ninomiya, H., Matsushima, T ., and Hirasawa, S
    • Journal Title

      Proc. 2013 RISP International Workshop on Nonlinear Circuits, Communications and Signal Processing (NCSP'13)

      Pages: 185-188

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] A Linear Time ADMM Decoding for LDPC Codes over MIMO Channels2013

    • Author(s)
      M. Kobayashi, H. Ninomiya,, T. Matsushima, and S. Hirasawa
    • Journal Title

      Proc. 2013 RISP International Workshop on Nonlinear Circuits, Communications and Signal Processing

      Volume: 1 Pages: 185-188

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] An Error Probability Estimation of the Document Classification Using Markov Model2012

    • Author(s)
      M. Kobayashi, H. Ninomiya,, T. Matsushima, and S. Hirasawa
    • Journal Title

      Proc. 2012 International Symposium on Information Theory and its Applications

      Volume: 1 Pages: 712-716

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] パラメータ化オンライン準ニュートン法による階層型ニューラルネットワークの学習2012

    • Author(s)
      二宮 洋
    • Journal Title

      信学論A

      Volume: vol.J95-A, no.8 Pages: 698-703

    • NAID

      110009489990

    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] An Error Probability Estimation of the Document Classification Using Markov Model2012

    • Author(s)
      Kobayashi, M., Ninomiya, H., Matsushima, T ., and Hirasawa, S
    • Journal Title

      Proc. 2012 International Symposium on Information Theory and its Applications (ISITA'12)

      Pages: 712-716

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Robust Training of Feedforward Neural Networks using Combined Online/Batch quasi-Newton Techniques2012

    • Author(s)
      Hiroshi Ninomiya
    • Journal Title

      Lecture Notes in Computer Science(Proc. 2012 International Conference on Artificial Neural Networks)

      Volume: vol.7553 Pages: 74-83

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] 階層型ニューラルネットワークの学習に対するonline/batch ハイブリッド型準ニュートン法の有効性に関する研究2012

    • Author(s)
      阿倍俊和,坂下善彦,二宮 洋
    • Journal Title

      Journal of Signal Processing

      Volume: vol.16, no.5 Pages: 451-458

    • NAID

      130004457037

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] パラメータ化オンライン準ニュートン法による階層型ニューラルネットワークの学習2012

    • Author(s)
      二宮 洋
    • Journal Title

      信学論 A

      Volume: vol.J95-A,no.8 Pages: 698-703

    • NAID

      110009489990

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] 階層型ニューラルネットワークの学習に対する online/batch ハイブリッド型準ニュー トン法の有効性に関する研究2012

    • Author(s)
      阿倍俊和, 坂下善彦, 二宮 洋
    • Journal Title

      Journal of Signal Processing

      Volume: vol.16,no.5 Pages: 451-458

    • NAID

      130004457037

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Robust Training of Multilayer Neural Networks using Parameterized Online quasi-Newton Algorithm2011

    • Author(s)
      Hiroshi Ninomiya
    • Journal Title

      Proc. IEEE/ICMLA'11

      Volume: 1 Pages: 311-316

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Parameterized Online quasi-Newton Training for High-Nonlinearity Function Approximation using Multilayer Neural Networks2011

    • Author(s)
      Ninomiya, H
    • Journal Title

      Proc. IEEE&INNS/IJCNN'11

      Pages: 2770-2777

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Microwave Neural Network Models Using Improved Online quasi-Newton Training Algorithm2011

    • Author(s)
      Hiroshi Ninomiya
    • Journal Title

      Journal of Signal Processing

      Volume: 15 Pages: 483-488

    • NAID

      40019081817

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Microwave Neural Network Models Using Improved Online quasi-Newton Training Algorithm2011

    • Author(s)
      Ninomiya, H
    • Journal Title

      Journal of Signal Processing

      Volume: vol.15,no.6 Pages: 483-488

    • NAID

      40019081817

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Parameterized Online quasi-Newton Training for High-Nonlinearity Function Approximation using Multilayer Neural Networks2011

    • Author(s)
      Hiroshi Ninomiya
    • Journal Title

      Proc. IEEE&INNS/IJCNN'11

      Volume: 1 Pages: 2770-2777

    • Peer Reviewed
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Journal Article] Two-stage Tabu Search for Nonslicing Floorplan Problem Represented by O-Tree2007

    • Author(s)
      Ninomiya, H., Numayama, K., Asai.H
    • Journal Title

      Journal of Signal Processing vol. 11

      Pages: 17-24

    • Data Source
      KAKENHI-PROJECT-17700079
  • [Journal Article] Three-Dimensional Module Packing Using 3DBSG Structure2005

    • Author(s)
      Ninomiya, H., Yamagishi, H., Asai, H.
    • Journal Title

      Journal of Signal Processing vol.9

      Pages: 439-445

    • NAID

      10014061451

    • Data Source
      KAKENHI-PROJECT-17700079
  • [Presentation] Transformerを用いた大喜利の生成に関する研究2024

    • Author(s)
      山富 龍, マハブービ・シャヘラザード, 二宮 洋
    • Organizer
      電子情報通信学会総合大会
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] ディープラーニングを用いた生成画像の識別に関する研究2024

    • Author(s)
      李 洪企, 山富 龍, マハブービ・シャヘラザード, 二宮 洋
    • Organizer
      電子情報通信学会総合大会
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] 大規模言語モデルを用いた特定キャラクターBotの実装に関する研究2024

    • Author(s)
      堀 雄介, マハブービ・シャヘラザード, 二宮 洋
    • Organizer
      電子情報通信学会総合大会,
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] 時空間2次ダイナミクスモデルに対する慣性付適応的勾配アルゴリズムの有効性に関する研究2023

    • Author(s)
      マハブービ・シェヘラザード, 二宮 洋
    • Organizer
      電子情報通信学会 信学技報 非線形問題研究会
    • Data Source
      KAKENHI-PROJECT-23K11267
  • [Presentation] 大喜利生成AIの実装に関する研究2023

    • Author(s)
      山富 龍, マハブービ シェヘラザード, 二宮 洋
    • Organizer
      情報処理学会第85回全国大会,6V-07
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] Weight Difference Propagation for Stochastic Gradient Descent Learning2023

    • Author(s)
      Mahboubi Shahrzad and Ninomiya Hiroshi
    • Organizer
      The Eighteenth International Multi-Conference on Computing in the Global Information Technology, ICCGI 2023
    • Int'l Joint Research
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] 大喜利生成 AI に適したAutoEncoderの構造に関する研究2023

    • Author(s)
      山富龍, マハブービ・シャヘラザード, 二宮洋
    • Organizer
      2023 NOLTAソサイエティ大会
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] 道路標識検出用SSDのためのUnityを用いたアノテーション自動化に関する研究2023

    • Author(s)
      山崎 太郎, 山富 龍, マハブービ シェヘラザード, 二宮 洋
    • Organizer
      情報処理学会第85回全国大会,6Q-04
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] 慣性項による確率的重み差分伝播法の高速化に関する研究2022

    • Author(s)
      マハブービ シェヘラザード, 二宮 洋
    • Organizer
      電子情報通信学会 信学技報 非線形問題研究会
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] 2次情報を用いた二重適応縮約型学習アルゴリズムにおけるネステロフの加速勾配の効果に関する研究2022

    • Author(s)
      山富龍, マハブービ シェヘラザード, 二宮洋
    • Organizer
      2022 NOLTAソサイエティ大会
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] ニューラルネットワーク学習のための適応的な分散低減二次手法2021

    • Author(s)
      安田 壮太, S. Indrapriyadarsini, 二宮 洋, 神尾 武司, 浅井 秀樹
    • Organizer
      NOLTAソサイエティ大会
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] A modified limited memory Nesterov’s accelerated quasi-Newton2021

    • Author(s)
      S. Indrapriyadarsini, Shahrzad Mahboubi, Hiroshi Ninomiya, Takeshi Kamio, Hideki Asai
    • Organizer
      NOLTAソサイエティ大会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] On the Study of Memory-Less quasi-Newton Method with Momentum Term for Neural Network Training2021

    • Author(s)
      Mahboubi Shahrzad, Yamatomi Ryo, Sendilkkumaar Indrapriyadarsini, Ninomiya Hiroshi,and Asai Hideki
    • Organizer
      2021 IEICE Nonlinear Science Workshop
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] 慣性項付き記憶制限準ニュートン法を用いた深層強化学習のTensorflowへの実装2021

    • Author(s)
      田中和真, マハブービ・シャヘラザード, 二宮 洋
    • Organizer
      IEICE 総合大会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] 慣性付メモリーレス準ニュートン学習法に関する研究2021

    • Author(s)
      Shahrzad Mahboubi, S. Indrapriyadarsini, 二宮 洋, 浅井 秀樹
    • Organizer
      NOLTAソサイエティ大会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] 慣性項付き記憶制限準ニュートン法を用いた深層強化学習のTensorflowへの実装2021

    • Author(s)
      田中和真, マハブービ・シャヘラザード, 二宮 洋
    • Organizer
      IEICE 総合大会
    • Data Source
      KAKENHI-PROJECT-20K11979
  • [Presentation] Neural Networkを用いたAnalog回路設計2020

    • Author(s)
      センディルクマール・インドラプリヤダルシ二,マハブービ・シェヘラザード,二宮洋,浅井秀樹
    • Organizer
      IEICE 総合大会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] 確率的分散低減を用いたネステロフの加速準ニュートン法2020

    • Author(s)
      安田壮太, マハブービ・シャヘラザード,センディルクマール・インドラプリヤダルシ二,二宮洋, 浅井秀樹
    • Organizer
      IEICE 総合大会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] MOGAを用いたCMOSオペアンプの最適化2020

    • Author(s)
      久保仁志,二宮 洋,浅井秀樹
    • Organizer
      電子情報通信学会 信学技報 非線形問題研究会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] 慣性項を用いた記憶制限準ニュートン法による深層強化学習2020

    • Author(s)
      田中和真, マハブービ・シャヘラザード, 二宮 洋
    • Organizer
      IEICE 総合大会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] 適応的慣性項を用いた準ニュートン学習法に関する研究2020

    • Author(s)
      マハブービ・シャヘラザード, センディルクマール・インドラプリヤダルシ二, 二宮 洋, 浅井秀樹
    • Organizer
      IEICE 総合大会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] 準ニュートン法における慣性項の影響に関する研究2019

    • Author(s)
      Shahrzad Mahboubi,S. Indrapriyadarsini,二宮 洋,浅井秀樹
    • Organizer
      電子情報通信学会 信学技報 非線形問題研究会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] 様々な最適化法におけるCascade-correlationの性能調査2019

    • Author(s)
      藤瀬和洋,センディルクマールインドラプリヤダルシニ,マハブービシェヘラザード,二宮 洋,浅井秀樹
    • Organizer
      電気学会電子回路研究会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] Knowledge Based Neural Network の概念を用いた学習モデルの効率について2019

    • Author(s)
      北川 信,センディルクマールインドラプリヤダルシニ,マハブービシェヘラザード,二宮 洋,浅井秀樹
    • Organizer
      電気学会電子回路研究会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] Neural Network Assistance for Determining Circuit Design Parameters2019

    • Author(s)
      ディバカラアビシェイク ベンカテシュ バルガワラン,センディルクマールインドラプリヤダルシニ,二宮 洋,浅井秀樹
    • Organizer
      電気学会電子回路研究会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] ネステロフの加速勾配を用いたBarzilai-Borwein法の高速化2019

    • Author(s)
      佐藤佑哉,Shahrzad Mahboubi,S. Indrapriyadarsini,二宮 洋,浅井秀樹
    • Organizer
      2019年 電子情報通信学会 総合大会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] ネストロフの加速勾配を用いたQuickprop学習法の高速化2017

    • Author(s)
      Shahrzad Mahboubi,二宮 洋
    • Organizer
      2017年 電子情報通信学会 総合大会
    • Place of Presentation
      名古屋,名城大学
    • Year and Date
      2017-03-22
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Presentation] 慣性付2次近似勾配モデルを用いた記憶制限準ニュートン法の有効性に関する研究2017

    • Author(s)
      Shahrzad Mahboubi,二宮 洋
    • Organizer
      電子情報通信学会 非線形問題研究会
    • Data Source
      KAKENHI-PROJECT-17K00350
  • [Presentation] ネステロフの加速準ニュートン法による学習アルゴリズムの提案2016

    • Author(s)
      二宮 洋
    • Organizer
      電子情報通信学会 信学技報 非線形問題研究会, vol.115, no.425, NLP2015-141
    • Place of Presentation
      九州工業大学
    • Year and Date
      2016-01-28
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Presentation] ネステロフの加速勾配を用いた準ニュートン学習法に関する研究2016

    • Author(s)
      三宅あかり,越森恵莉菜,二宮 洋
    • Organizer
      2016年 電子情報通信学会 ソサイエティ大会
    • Place of Presentation
      北海道,北海道大学
    • Year and Date
      2016-09-20
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Presentation] 潜在クラスモデルのニューラルネットワークによる学習2016

    • Author(s)
      吉本昌史,小林 学,二宮 洋
    • Organizer
      2016年 電子情報通信学会 ソサイエティ大会
    • Place of Presentation
      北海道,北海道大学
    • Year and Date
      2016-09-20
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Presentation] 再構成可能論理回路の設計法と各種方式の比較2016

    • Author(s)
      嘉藤淳紀,渡辺重佳,二宮 洋,小林 学,三浦康之
    • Organizer
      電子情報通信学会 信学技報, VLD2015-77, CPSY2015-109, RECONF2015-59
    • Place of Presentation
      慶應義塾大学
    • Year and Date
      2016-01-19
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Presentation] 寿命付きリーダーを用いたローカル粒子群最適化についての研究2014

    • Author(s)
      佐伯 誠,坂下善彦,二宮 洋
    • Organizer
      情報処理学会 第76回 全国大会
    • Place of Presentation
      東京電機大学
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] 動的サンプルサイズ選択法に基づく準ニュートン法による階層型ニューラルネットワークの学習2013

    • Author(s)
      二宮 洋
    • Organizer
      電子情報通信学会 信学技報 非線形問題研究会
    • Place of Presentation
      宮古島
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] 改良型分散準ニュートン法によるニューラルネットワークの学習2013

    • Author(s)
      佐伯 誠,坂下善彦,二宮 洋
    • Organizer
      電子情報通信学会 基礎・境界ソサイエティ大会
    • Place of Presentation
      福岡工業大学
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] 改良型分散準ニュートン法によるニューラルネットワークの学習2013

    • Author(s)
      佐伯 誠, 坂下善彦, 二宮 洋
    • Organizer
      電子情報通信学会 基礎・境界ソサイエティ大会
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] Dynamic Sample Size Selection in Improved Online quasi-Newton Method for Robust Training of Feedforward Neural Networks2013

    • Author(s)
      Ninomiya, H
    • Organizer
      The Fifth International Conference on Advanced Cognitive T echnologies and Applications (COGNITIVE2013)
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] 動的サンプルサイズ選択法に基づく準ニュートン法による階層型ニューラルネットワークの学習2013

    • Author(s)
      二宮 洋
    • Organizer
      電子情報通信学会 信学技報 非線形問題研究会
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] Dynamic Sample Size Selection in Improved Online quasi-Newton Method for Robust Training of Feedforward Neural Networks2013

    • Author(s)
      Hiroshi Ninomiya
    • Organizer
      The Fifth International Conference on Advanced Cognitive Technologies and Applications (COGNITIVE2013)
    • Place of Presentation
      Valencia, Spain
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] 分散並列環境における準ニュートン学習アルゴリズムの有効性2013

    • Author(s)
      佐伯 誠, 坂下善彦, 二宮 洋
    • Organizer
      電子情報通信学会信学技報 非線形問題研究会
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] Online/Batchハイブリット型準ニュートン法によるニューラルネットワークの学習アルゴリズム2012

    • Author(s)
      阿部俊和,坂下善彦,二宮 洋
    • Organizer
      情報処理学会 第74回 全国大会
    • Place of Presentation
      名古屋工業大学(名古屋市)
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] Online/Batch ハイブリット型準ニュートン法によるニューラルネットワークの学習アルゴリズム2012

    • Author(s)
      阿部俊和, 坂下善彦 , 二宮洋
    • Organizer
      情報処理学会第74回全国大会
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] MIMO 通信における相互情報量基準に基づく量子化器の設計法2012

    • Author(s)
      小林 学, 八木秀樹, 二宮 洋, 平澤茂一
    • Organizer
      電子情報通信学会 情報理論研究会 信学技報
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] online/batchハイブリッド型準ニュートン法による階層型ニューラルネットワークのロバスト学習に関する研究2011

    • Author(s)
      阿部俊和,坂下善彦,二宮 洋
    • Organizer
      電子情報通信学会 非線形問題研究会
    • Place of Presentation
      沖縄県
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] online/batch ハイブリッド型準ニュートン法による階層型ニューラルネットワークのロバスト学習に関する研究2011

    • Author(s)
      阿部俊和, 坂下善彦 , 二宮洋
    • Organizer
      電子情報通信学会 非線形問題研究会信学技報
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] ダブルゲート型トランジスタを用いた再構成可能論理回路の設計法

    • Author(s)
      嘉藤淳紀,渡辺重佳,二宮 洋,小林 学,三浦康之
    • Organizer
      電子情報通信学会 信学技報, CPM2014-126, ICD2014-69
    • Place of Presentation
      別府国際コンベンションセンター
    • Year and Date
      2014-11-25 – 2014-11-29
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Presentation] 分散並列環境における準ニュートン学習アルゴリズムの有効性

    • Author(s)
      佐伯 誠,坂下善彦,二宮 洋
    • Organizer
      電子情報通信学会 非線形問題研究会
    • Place of Presentation
      北海道大学
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] 粒子群最適化におけるローカル化及び寿命付きリーダーの有効性に関する研究

    • Author(s)
      佐伯 誠,坂下善彦,二宮 洋
    • Organizer
      情報処理学会 第77回 全国大会
    • Place of Presentation
      京都大学
    • Year and Date
      2015-03-17 – 2015-03-19
    • Data Source
      KAKENHI-PROJECT-26330287
  • [Presentation] MIMO通信における相互情報量基準に基づく量子化器の設計法

    • Author(s)
      小林 学,八木秀樹,二宮 洋,平澤茂一
    • Organizer
      電子情報通信学会 情報理論研究会
    • Place of Presentation
      草津セミナーハウス
    • Data Source
      KAKENHI-PROJECT-23500189
  • [Presentation] ローカル粒子群最適化における寿命付リーダーの有効性

    • Author(s)
      佐伯 誠,坂下善彦,二宮 洋
    • Organizer
      電子情報通信学会 基礎・境界ソサイエティ大会
    • Place of Presentation
      徳島大学
    • Year and Date
      2014-09-23 – 2014-09-26
    • Data Source
      KAKENHI-PROJECT-26330287
  • 1.  KOBAYASHI Manabu (80308204)
    # of Collaborated Projects: 1 results
    # of Collaborated Products: 10 results

URL: 

Are you sure that you want to link your ORCID iD to your KAKEN Researcher profile?
* This action can be performed only by the researcher himself/herself who is listed on the KAKEN Researcher’s page. Are you sure that this KAKEN Researcher’s page is your page?

この研究者とORCID iDの連携を行いますか?
※ この処理は、研究者本人だけが実行できます。

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi