分散配置データを用いた深層学習のための鍵管理不要な学習可能暗号化法の構築

项目来源

日本学术振兴会基金(JSPS)

项目主持人

貴家 仁志

项目受资助机构

東京都立大学

项目编号

25K07750

立项年度

2025

立项时间

未公开

项目级别

国家级

研究期限

未知 / 未知

受资助金额

4680000.00日元

学科

通信工学関連

学科代码

未公开

基金类别

基盤研究(C)

关键词

画像暗号化法 ; プライバシー保護 ; 深層学習 ;

参与者

塩田 さやか

参与机构

東京都立大学,システムデザイン研究科

项目标书摘要:Outline of Research at the Start:本研究の目的は、学習データセットが分散配置された環境での深層学習モデルの新しい学習法を構築するために、各データに対して異なる暗号鍵を使用できる学習可能暗号化を開発することである。その際、一般に2つの要件を満たす必要がある。第1はデータのプライバシー保護であり、第2は複数のクライアントと統合モデルを学習する中央サーバ間の通信コストの削減である。このような背景から、本研究では、画像及び音声信号を例にして(A)鍵管理不要な学習可能暗号化法(B)通信コストの削減(C)暗号化法の安全性の評価という3つの項目を達成目標にする。

  • 排序方式:
  • 1
  • /
  • 1.Effective Fine-Tuning of Vision Transformers with Low-Rank Adaptation for Privacy-Preserving Image Classification

    • 关键词:
    • Classification (of information);Computer vision;Privacy-preserving techniques;Tuning;Adaptation methods;Decomposition matrix;Embeddings;Fine tuning;Images classification;Low-rank adaptation;Model weights;Privacy preserving;Transformer modeling;Vision transformer
    • Lin, Haiwei;Imaizumi, Shoko;Kiya, Hitoshi
    • 《14th IEEE Global Conference on Consumer Electronics, GCCE 2025》
    • 2025年
    • September 23, 2025 - September 26, 2025
    • Osaka, Japan
    • 会议

    We propose a low-rank adaptation method for training privacy-preserving vision transformer (ViT) models that efficiently freezes pre-trained ViT model weights. In the proposed method, trainable rank decomposition matrices are injected into each layer of the ViT architecture, and moreover, the patch embedding layer is not frozen, unlike in the case of the conventional low-rank adaptation methods. The proposed method allows us not only to reduce the number of trainable parameters but to also maintain almost the same accuracy as that of full-time tuning. © 2025 IEEE.

    ...
  • 2.A Privacy-Preserving Semantic-Segmentation Method Using Domain-Adaptation Technique

    • 关键词:
    • Computer vision;Privacy-preserving techniques;Semantic Segmentation;Semantic Web;Adaptation techniques;Domain adaptation;Images encryptions;Model training;Perceptual encryptions;Privacy preserving;Segmentation methods;Semantic segmentation;Test images;Vision transformer
    • Sueyoshi, Homare;Nishikawa, Kiyoshi;Kiya, Hitoshi
    • 《14th IEEE Global Conference on Consumer Electronics, GCCE 2025》
    • 2025年
    • September 23, 2025 - September 26, 2025
    • Osaka, Japan
    • 会议

    We propose a privacy-preserving semantic-segmentation method for applying perceptual encryption to images used for model training in addition to test images. This method also provides almost the same accuracy as models without any encryption. The above performance is achieved using a domain-adaptation technique on the embedding structure of the Vision Transformer (ViT). The effectiveness of the proposed method was experimentally confirmed in terms of the accuracy of semantic segmentation when using a powerful semantic-segmentation model with ViT called Segmentation Transformer. © 2025 IEEE.

    ...
  • 排序方式:
  • 1
  • /