dew's CSE Studying

A Survey on Federated Learning(Chen Zhang, Yu Xie,..., 2021) 본문

Machine Learning/논문 리뷰

A Survey on Federated Learning(Chen Zhang, Yu Xie,..., 2021)

dew₍ᐢ.ˬ.⑅ᐢ₎ 2025. 1. 13. 11:59

Abstract

Federated learning is a set-up in which multiple clients collaborate to solve machine learning problems, which is under the coordination of a central aggregator

연합학습이란 이렇게 client 여러명이 중앙서버를 가지고 함께 ML problem을 해결하기 위해 협력하는 것이다.

이렇게 하면 data privacy 보장할 수 있다. data가 training data가 decentralized되기 때문에!

 

2가지 main idea

  1. local computing
  2. model transmission

=>traditional centralized ml methods에서 발생했던 privacy risk & cost문제 해결 가능

 

 

process

  1. 각 device가 local data를 local training(각 클라이언트의 원본 데이터는 로컬에 저장&외부로 전송되거나 이동되지 않는다)
  2. model을 서버에 업로드
  3. 서버가 model update를 다시 재전송해줌

 

연합학습 연구의 5가지 주요 측면

  1. data partitioning: 데이터를 분산하여 처리하는 방법
  2. privacy mechanism: 데이터 프라이버시를 보장하는 기술
  3. machine learning model: 연합 학습에서 활용되는 모델
  4. communication architecture: 클라이언트와 서버 간의 효율적인 통신 방식
  5. systems heterogeneity: 다양한 디바이스와 환경에서의 연합 학습 적용

 

Introduction

1.1 Backgrounds of federated learning

  • data protection 문제가 대두
  • data processing: ex)centralized collection, unified processing, cleaning, modeling 중 주로 collection, processing에서 data leak 발생→collecting data가 어려워짐
  • 연합학습은 data island문제(데이터를 보유하고 있는 개별 조직/디바이스/시스템이 다른 데이터 소스와 분리된 상태)의 해결방안
  • 기존의 centralized training method:
    -중앙 서버에 데이터를 집중시켜 모델을 학습하는 방식
    -data leaking&privacy 문제로 사용이 어렵
    -personal data를 모두 전송해야만 했음
  • 연합학습은 암호화된 처리된 파라미터를 교환하여 사용자의 원본 데이터를 보호

 

연합학습의 유형(데이터 분포에 따라)

  • horizontal federated learning: 두 데이터셋의 사용자 특성이 많이 겹치고, 사용자는 거의 겹치지 않는 경우
  • vertical federated learning: 사용자 특성은 거의 안 겹치고 사용자는 많이 겹치는 경우
  • federated transfer learning: 두 데이터셋의 사용자 및 사용자 특성이 거의 겹치지 않는 경우(데이터/레이블 부족 해결을 위해 사용)

federated learning vs distributed machine learning

  • parameter server의 역할
    -연합학습: 모델 파라미터 집계
    -분산 머신러닝: 데이터 저장 및 훈련 속도 가속화
  • worker node
    -연합학습: 각각의 worker node가 데이터의 유일한 소유자이자 training participant(데이터는 서버에 전송X, 파라미터만 전송)
    -분산 머신러닝: 다른 working nodes에 데이터를 저장→resource를 신뢰가능한 central server를 통해 할당

연합학습의 주요 특징

유저들이 local data에 대해 완전한 자치권을 갖는다는 것

 

연합학습 환경에서 privacy protection mechanism의 2가지 종류

  1. encryption algorithms 사용 (common)
    (ex.homomorphic encryption(동형암호화), secure aggregation)
    클라이언트는 자신의 데이터를 로컬에서 암호화하고, 이 암호화된 데이터를 서버로 전송하여 모델 업데이트를 수행
  2. 모델 파라미터에 differential privacy(차등 프라이버시)의 noise 추가
    client가 모델 업데이트를 서버에 보내기 전에 차등 프라이버시 노이즈를 추가→업데이트된 모델이 personalized data를 포함하지 않도록

Google의 연합학습 시스템

  • secure convergence+differential privacy→privacy 보장

 

1.2 Challenges to federated learning

  1. privacy protection: 사용자의 개인정보를 밝히지 않는 것을 보장해야함
  2. 데이터 부족: 연합 학습 환경에서는 각 디바이스에 저장된 데이터가 제한적이고, 데이터 양이 충분하지 않을 수 있다. 그래서 연합학습에서는 각 디바이스가 local model을 training하기 위해 local data를 사용하도록 하며, 모든 local model은 global model로 합쳐지기 위해 서버에 업로드 된다
  3. statistical heterogeneity(통계적 비동질성): 연합 학습 환경에서 각 디바이스가 보유한 데이터는 Non-IID(Non-Independent and Identically Distributed)(분포가 다름)인 경우가 많다. 

 

1.3 Main contributions

  1. federated learning의 발전단계를 살펴봄
  2. 5가자ㅣ 측면에서 현존하는 federated learning의 work를 살펴봄: Data Partitioning, Privacy Mechanism, Machine Learning Model, Communication challenges, Systems Heterogeneity
  3. Federated Learning의 현존하는 한계점&미래연구방향 제시
  4. 현재 Federated Learning의 특징 요약&실질적인 application을 분석

 

Related works

federated learning은 encryption mechanism 아래에서 parameter 교환이 이루어지기 때문에 데이터 노출 없이 보호가 가능하다

2.1 Definition of Federated Learning

 

basic 3 steps

  1. 서버가 각 디바이스에게 initial model을 각각 보내준다
  2. 디바이스가 자기의 데이터를 통해 자기 모델을 학습시킨다
  3. 서버가 local model을 합쳐서 global model을 만들고, 글로벌 모델이 user의 local model을 대체할 수 있도록 업데이트시킨다

2.2 The development of federated learning

문제사항: 예를 들어보자. 다른 기업의 host들이 머신모델을 학습시키는데 collaborate하고 싶다. 근데 GDPR에 따르면 각각 user들의 동의 없이 데이터들을 합치는 것은 불가능하다. 대신에 이 host들은 그냥 자기 local data로 자기 모델을 학습시킨다. 이렇게 해서 각자 task model을 만들었지만 데이터가 incomplete해서 이것만으로 ideal machine learning model을 학습시키기는 어렵다.

 

해결: Federated Leaning

 

Categorizations of Federated Learning

5가지 측면에서 연합학습의 카테고리를 살펴보자

3.1 Data partition

데이터의 sample space와 feature space의 distribution pattern에 따라 다시 세 가지 카테고리로 나뉜다.

3.1.1 Horizontal federated learning

  • 상황: 사용자 특성은 많이 겹치고, 사용자들은 적게 겹칠 때(ex다른 유저인데 비슷한 사업을 하고 있는 사람들)
  • 방법: 데이터셋을 horizontal하게 split→(user feature 비슷, user 다름)인 데이터들을 빼낸다→local gradient를 계산 후 업로드→서버가 합쳐서 global model을 만든다
  • 효과: user sample size를 늘릴 수 있다. 즉, training sample의 수를 늘리고 모델의 정확도를 높인다
  • 문제: privacy(private info가 communication 과정에서 유출가능성)
  • 해결: homomorphic encryption(동형암호화), differential privacy(noise 추가하는거), secure aggregation(합칠때)
  • 예시: Google의 Android phone model
  • framework & learning method:
    -BlockFL: 각 디바이스는 local learning model을 업데이트하기 위해 블록체인 네트워크 사용
    -MOCHA: 멀티태스킹에서의 security 문제 해결(통신 비용을 줄이고 오류 내성을 높임)

3.1.2 Vertical federated learning

  • 상황: 사용자 특성 적게 겹치고 사용자는 많이 겹칠 때(같은 마을에 존재하는 은행과 병원이라고 했을 때 겹치는 사용자지만 데이터 특성은 관계없음)
  • 방법: 데이터셋을 vertical하게 split→(user feature 다름, user 같음)인 데이터들을 빼낸다→암호화하여 데이터들을 합친다→local gradient를 계산 후 업로드→서버가 합쳐서 global model을 만든다
  • 효과: training data의 feature dimension을 늘릴 수 있다
  • 모델: logical regression model, three structure model, neural network model
  • 알고리즘: classification, statistical analysis, gradient descent, safe linear regression, data mining
  • 예시:
    -SecureBoost: decision-making의 정확도를 높이기 위한 연합학습시스템
    -Hardy's model: pipelined entity analysis&distributed logic regression 사용→privacy protection&classifier의 성능개선

3.1.3 Federated transfer learning

  • 상황: 사용자&사용자 특성 모두 적게 겹침(중국의 은행과 미국의 병원)
  • 문제: small unilateral data size&small label samples(주로 데이터부족 문제!)
  • 효과: 데이터의 프라이버시 보장, 보조업무의 모델을 director learning으로 transfer, 데이터부족 문제 극복

 

3.2 Privacy mechanisms

federal privacy protection을 위한 세 가지 privacy mechanism 소개

3.2.1 Model aggregation

:모든 party들의 model parameter을 summarize하여 global model을 학습하는 방법

-원본 데이터를 전송하지 않아도 됨

 

주요 연구 및 기법

  • Sashi et al.
    - 인센티브 메커니즘을 기반으로 여러 장치가 연합 학습에 참여할 수 있게 함
    -communication efficiency optimization이 model parameter exchange 과정에서 실시간 고려되어야 함
  • Yu et al.
    -local adaption based on fine-tuning, multi-task learning, knowledge extraction
    -연합 학습에서 더 나은 성과+로컬 모델보다 개선된 성과
  • McMahan et al.
    -iterative model averaging에 기반한 deep network 연합학습 framework 제안
    -로컬 모델을 매 업데이트 라운드마다 summarizing하여 글로벌 모델을 학습
  • PATE method
    -Teacher→Student 지식 전이
    - 분리된 데이터에서 학습된 여러 모델을 블랙박스 방식으로 결합→training data의 privacy 보장
  • Yurochkin t al.
    -Bayesian nonparametric framework: local model의 neuron들을 매칭시키는 방식으로 global model 설계
  • 연합학습+multitasking
    -여러 사용자가 각자의 환경에서 모델 트레이닝 가능
  • 연합학습+block chain
    -블록체인 프로토콜을 활용하여 각 장치의 모델 데이터를 안전하게 교환/업데이트할 수 있는 방법

3.2.2 Homomorphic encryption

일반 암호화 vs 동형암호화

general encryption schemes homomorphic encryption
-data storage security에 집중
-유저들은 key없이 암호화된 결과->원본데이터 정보 얻기 불가
-encrypted data에서 계산 불가
-security of data processing에 관심
-유저들이 encrypted data를 계산/처리 가능(원본데이터 노출은X)
-키를 가진 사용자가 처리된 데이터를 복호화하여 원래의 결과를 얻을 수 O
-ex)Ridge Regression

 

연합학습에서의 동형암호화

연합학습의 문제: user-server gradient exchange 중에 사용자들의 개인정보 유출

동형암호화는 모델의 training result를 건들지 않고 encrypted model을 다룰 수 있어서 좋은 해결책~

 

동형암호와의 활용 사례

  • Ridge Regression: 동형 암호화를 결합하여 개인 정보 보호 요구를 충족, 통신 및 계산 비용 개선에 도움
  • additive homomorphism: 모델 파라미터의 안전한 공유 보장, 중앙 서버에서 client의 프라이버시가 유출되지 않도록
  • federated logical regression model(Hardy et al.): additive homomorphism sheme으로 공격자로부터 데이터 보호
  • 연합학습 framework for transfer learning(Liu et al.): privacy mechanism도 additive homomorphism 사용→모델 파라미터를 암호화(data privacy 보호를 위해)
  • Cheng et al.: entity alignment technology를 사용하여 SecureBoost라고 하는 decision tree model 만듦. model parameter 보호를 위해 homomorphic encryption 사용

3.2.3 Differential privacy

정의

:statistical database에서 개인정보 유출문제를 해결하기 위해 생겨난 new privacy definition

  • 특정 레코드의 변화가 데이터베이스의 계산 결과에 미치는 영향이 매우 적음
  • 공격자는 계산 결과를 통해 개인 정보를 정확하게 추정할 수 없다

적용

  • 전통적인 ml과 dl에서 gradient iteration 과정에서 differential privacy를 적용하기 위해 output에 noise를 추가
  • 예시: Laplace mechanism, exponential mechanism
  • privacy와 validity의 균형을 맞추는 것이 주요 과제

분류

  • global differential privacy
    -Geyer et al.: federated optimization algorithm을 client들에게 적용(but noise추가로 인해 validity 감소)
    -Thakkar et al.: adaptive gradient에 기반한 paradigm pruning sheme을 디자인(불필요한 noise의 추가를 막기 위해)
  • localized differential privacy
    -Bhowmick et al.: minimax optimal privatization mechanism을 디자인→사용자들의 local privacy protection strategy를 모방, 잠재적 attacker의 힘을 제한, strict local privacy보다 향상된 모델성능

=>둘다 single user의 differential 요구사항을 만족하지만 적용 시나리오에 차이가 있음

 

연합학습에서의 활용

  • Li et al.: new gradient-based differential private prameter transfer algorithm
    -non-convex federal language의 modeling task에 적용
    -non-private model에 근접한 성능
  • Qi et al.: 뉴스 추천을 위한 연합학습에 기반한 recommendation model을 설계
    -local checking privacy
    -multi-user equipment(사용자들은 랜덤으로 로컬모델을 서버에 업로드하도록 선택되어 새로운 글로벌모델이 만들어짐)

3.3 Applicable machine learning models

federated learning을 유명한 ml model에 결합한 것

3.3.1 Liniear models

linear model의 세 가지 카테고리: linear regression, ridge regression, lasso regression

  • Du et al.: 연합환경에서 linear model 학습→entity parsing의 security problem을 해결, non-private solution과 동일한 정확도 도출
  • Nicolaenko et al.: homomorphic encryption과 Yao's protocol을 이용한 ridge regression system 설계(best performance 기록)

linear model은 다른 모델에 비해 구현하기 간단하고 쉽다. 연합학습과 결함하기에 효율적인 모델이다,

3.3.2 Tree models

Gradient Boosting Decision Tree(GBDT) algorithm

  • Zhao et al.: regressioin/binary classification에 GBDT privacy protection 처음 구현
  • Cheng et al.: SecureBoost라고 하는 gradient lifting decision tree를 학습하는 framework 제안
    -for horizontal and vertical data
    -사용자들이 연합학습 시스템을 설립할 수 있게 함

3.3.3 Neural network models

Unmanned Aerial Vehicle(UAV): UAV그룹과 ground base station 사이에 지속적인 연결이 불가능→실시간 수행이 불가능

  • Zheng et al.: 분산연합학습 알고리즘을 UAV group에 처음 적용(전력 할당과 스케줄링을 연합, 연합학습의 convergence speed를 최적화)
    - 리더 UAV가 나머지 UAV에서 학습된 로컬 비행 모델을 요약하여 글로벌 비행 모델을 생성→이를 그룹 내 네트워크를 통해 나머지 UAV에 전달하는 방식
  • Bonawitz et al.: Tensorflow 베이스로 모바일 device를 위한 scalable federated system 만듦
    -큰 스케일의 data model 학습 가능
  • Yand et al.: data partition을 기반으로 한 연합 딥러닝 프레임워크를 구축하여, 기업 데이터에서 priority application을 달성
  • Liu et al.: traffic flow를 위한 GRU(Gated Recurrent Unit) neural network와 연합학습을 결합, FedGRU 알고리즘을 만듦(최적의 글로벌 모델을 통합, 교통 흐름 데이터의 시공간 상관 관계를 더 정확하게 포착)
    -연합학습 적용 시 더 높은 성능

3.4 Communication architecture

연합학습의 문제점

  • 사용자 데이터의 고르지 않은 분포
  • 장치의 컴퓨터 성능 차이

=>Non-IID data에서 민감한 정보를 유출하지 않으면서 이를 처리해야 하는 상황이 발생

 

  • FedProx: 분산학습을 위한 edge device data 결합, 연합 평균 최적화 기법으로 목표 작업의 견고성과 안정성 보장
  • FedAvg: 가장 common한 모델최적화 방법으로, 로컬에서 업로드된 gradient를 평균화하여 업데이트→각 장치에 다시 배포(Multitask learning에서 좋은 성능이 입증됨)

 

연합학습에서 모델업데이트에서 communication cost가 너무 높다는 problem 어떻게 해결?
  • Konecny et al.: quantization, random rotation, secondary sampling의 방법으로 model data를 압축→중앙 서버와 사용자 사이의 communication pressure을 줄임
  • Caldas et al.: lossy compression&Federated Dropout→server-to-device communication을 줄임
  • Sattler et al.: Sparse Tenary Compression protocol 제안→연합학습을 위한 Non-IID 데이터 학습에서 연합 평균 알고리즘보다 빠른 수렴 속도를 보임
  • Yang et al.: 새로운 federated average 알고리즘 제안(장치별 가중 평균을 계산하여 global 모델을 calculate하는 방식)→data privacy & Non-IID data의 불균형 해결

 

3.5 Methods for solving heterogeneity

"system of heterogeneity": 장치가 다 다르다는 점이 전체 학습의 효율성에 영향을 미치는 것

3.5.1 Asynchronous communication

전통적인 data center setup에는 parallel iterative 최적화 알고리즘에 기반한 두 가지 scheme이 존재한다.

  • synchronous communication: 디바이스가 다양해지면 방해받기 쉬움
  • asynchronous communication: problem of scattered devices를 해결하기 good

 

연구사례

  • Duchi et al.: 데이터의 희소성(sparsity)을 활용하여 병렬 및 비동기 알고리즘을 연구→problem of heterogeneity 문제 해결
  • memory sharing system: asynchronous sheme이 device heterogeneity problem 해결
  • device communication에서의 딜레이문제가 있음
  • 연합학습에서는 실시간 소통의 필요성 때문에 asynchronous communication으로 시스템의 heterogeneity를 해결하는 것이 첫번째!

3.5.2 Sampling

모든 장치가 참여해야 할까?
수동 참여(Passive Participation): 중앙 서버가 학습에 참여할 장치를 선택
능동 참여(Active Participation): 고품질 데이터를 가진 장치가 자발적으로 학습에 참여
  • Nishio et al.: FedCS라는 새로운 프로토콜 제안→resource-constrained client selection 문제를 해결(학습 과정에 client를 추가하여 성능 향상)
  • Kang et al.: contract theory에 기반한 incentive mechanism 설계→높은 퀄리티의 데이터를 가진 local device들이 학습 과정에 활발하게 참여하도록 하여 정확도 향상
  • Qi et al.: 연합학습에 기반한 news recommendation model을 설계→서버에 업로드할 때 user들의 local gradient를 랜덤으로 선택
  • Wang et al.: Pulling Reduction with Local Compensation(PRLC)(end-to-end communication을 달성하기 위함)
    -각 학습 반복에서 일부 장치만 모델 업데이트에 참여
    -참여하지 않은 장치는 PRLC 메서드를 통해 로컬에서 업데이트를 수행→글로벌 모델과의 격차를 줄임
    -strong convexity, non-convexity 상황에서 기존 방식과 동일한 수렴 속도&더 나은 확장성

3.5.3 Fault-tolerant mechanism

unstable network 상황에서 system의 collapsing을 막을 수 있다(특히 분산학습 상황에서)
  • 한 device의 failure이 다른 디바이스에도 영향을 미침
  • 연합학습 환경에서는 device admissibility(허용성)을 고려해야함

관련 연구

  • Wang et al.: local update와 global parameter 간의 best tradeoff를 결정하기 위한 control algorithm 제안
  • Yu et al.: communication을 줄임으로써 distributed random gradient descent algorithm에서의 linear acceleration 특성을 개선
  • 장치의 directly 참여를 무시하는 연구들
    -연합학습에서 multi-task learning의 효율성에 영향X
  • coding calculation을 통해 알고리즘 redundancy 제안
  • Kang et al: reputaion을 metric으로, 블록체인을 reputation managemeent scheme으로 도입하여 reliable staff selection에 기반한 연합학습 제도 제안→악성 시도 막을 수 있음

3.5.4 Model heterogeneity

연합학습에서 데이터 불균형문제를 해결하는 세 가지 모델링 방법

  1. 각 디사이스가 자체 모델을 보유하는 방식
  2. 모든 디바이스에 적합한 글로벌 모델을 훈련하는 방식
  3. 특정 작업에 적합한 학습 모델을 훈련하는 방식

주요 연구 및 방법론

  • Yu et al.: Federated Averaging with Spreadout(FedAwS)(=긍정적인 레이블만을 사용하는 training framework) 제안
    -반복이 끝날 때마다 서버가 geometrix regularizer 추가
    -클래스가 임베딩 공간에서 분산되도록 유도
    -기존에는 부정적 태그도 포함해야 했음→훈련 효율성과 분류 정확성↑
  • Zhao et al.: edge devices 사이에 일부 데이터만 훈련시켜 글로벌 모델을 만듦
    -Non-IID data의 훈련 정확도를 높이기 위함
  • Khodak et al.: 통계적 학습 상황에서 적응적 학습 방법을 설계
    -소규모 샘플 학습 및 연합 학습 성능 개선
  • Eichner et al.: 글로벌 모델과 특정 장치 간에 fast data dadptive training을 고안
    -연합학습에서의 데이터 이질성 문제를 해결하기 위함
  • Corinzia et al.: VIRTUAL이라고 하는 연합학습 알고리즘 제안
    -중앙서버의 연합 네트워크와 client를 Bayesian 네트워크로 간주하고 근사 변분 추론(approximate variational reasoning)을 사용해 네트워크 훈련을 수행
    -연합 학습 실제 데이터셋에서 최첨단 성능
  • Liang et al.: Local Global Federated Ageraging(LG-FEDAVG)알고리즘 제안
    -로컬 표현 학습+글로벌모델 연합학습 결합
    -불균형 데이터를 다룰 때 데이터/디바이스의 분산 감소, 모델의 유연성 증가 효과
    -communication cost 줄임, 이질적인 데이터 처리, 공정한 표현 학습

 

Applications

4.1 Service reccomendation

4.1.1 Google keyboard

  • 키보드 입력 예측의 성능 개선을 위해+동시에 사용자의 보안과 정보보호 보장
  • 연합학습과 결합→다른 recommendation system으로도 확장 가능

4.1.2 Intelligent medical diagnosis system

배경

  • privacy 문제로 medical data가 scarce한 resource가 됨
  • AI 개발로 인해 의학 자원 할당과 질병진단이 혁신적인 변화를 맞음
  • security challenges 문제 여전히 존재

연구

  • Cohen et al.: 존재하는 법적/도덕적 문제를 분석
    -두 가지 문제: 너무 적은 양의 데이터, 불충분한 label
    -해결: federated trasfer learning
  • Lee et al: interconnected medical system 사용→health outcome data와 longitudinal real data를 수집
    -APOLLO 네트워크에 기반한 통합 multi-연합학습 네트워크를 설계 및 구현(real-world data를 medical diagnostic evidence로 변환하여 의사들의 forward-looking diagnosis를 돕기 위함)

4.2 Wireless communication

배경

  • wireless network가 복잡해지며 기존의 방법이 부적합

연구

  • [무선통신에서의 연합학습 응용]
  • Niknam et al.: edge computing, 5G network같은 연합학습의 중요 기능들을 무선네트워크에 적용
    -이게 가능하다는 걸 보여주기 위해 표준 데이터셋에서 simulation을 수행
  • Mohammad et al.: remote parameter server의 도움을 받아 각 장치별 데이터로  federated model 설계
  • [자원할당 기반 효율성 향상]
  • Tran et al.: light wave power에 기반한 연합학습모델 설계
    -physical layer에 적용된 새로운 방법
    -resource allocation을 통해네트워크를 관리하기 위함(for 전송효율성 극대화)
    -noise problem 여전히 존재
  • [무선통신 노이즈 문제 해결]
  • Ang et al.: 무선통신의 노이즈를 처리하는 견고한 연합학습 알고리즘 제안
    -aggregation및 broadcast 과정에서 발생하는 노이즈 문제를 단순화→expected model과 worst-case model에 기반한 병렬 최적화 문제로 변환
    -SLA(Service-Level Agreement) 및 SCA(Service Component Architecture) 알고리즘을 통해 최적화 문제 해결
    -실험 결과, 예측 정확도 향상과 손실 감소 효과 확인

 

연합학습으로 private data를 공유하지 않고 good global model을 얻는 것에 더불어, 장치의 communication burden을 줄여서 good global model을 얻는 방법이 있다

  • Nguyen et al.: 스마트 홈의 무선 IoT 시스템에 연합 학습을 적용→공격 탐지 정확도↑, 통신 효율성↑
  • Savazz et al.: 5G 무선 네트워크에서 serverless 연합 학습 방법 제안
    -각 디바이스의 local gradient 반복 계산과 일관성 기반 방법을 사용→모델 매개 변수를 공유
  • Abad et al.: 무선 Heterogeneous cellular network(HCN)를 위한 계층적 연합 학습 프레임워크 설계
    -gradient sparse&period average 방법을 채택→모델의 통신 효율성 향상

 

Challenge and future work

5.1 Challenge

5.1.1 Privacy protection

  • data자체를 server한테 주는 게 아니라 model parameter을 주는 방식으로 Privacy 문제에 대응
  • But 모델 통신 과정에서 민감한 정보가 제3자에게 노출될 위험 존재(ex. reverse deduction of models)
  • 해결방법이 존재하긴 하지만 계산량을 매우 늘림

=>model transmission 과정에서 데이터유출을 막는 방법 연구 필요

5.1.2 Communication cost

  • communication 양이 많고 speed가 보장되지 못하는 문제

=>실용적인 연합학습을 위해 통신효율성을 보장하는 방법이 개발될 필요가 있음

5.1.3 Systems heterogeneity

  • 각 장치마다 computing 능력, communication 능력에 차이가 있음
  • 동시에 활성화된 디바이스는 전체 네트워크의 일부에 불과
  • 신뢰할 수 없는 디바이스의 존재가 문제를 가중시킴

=>이질적 하드웨어 수용&네트워크 내 오프라인 디바이스에도 견고한 연합 학습 방법 개발 필요

5.1.4 Unreliable model upload

  • 모바일 노드가 의도적/비의도적으로 서버를 잘못된 방향으로 이끌 수 있다
  • 악의적인 공격자: 잘못된 모델 매개변수를 전송하여 글로벌 모델의 집계를 방해할 수 있다
  • 불안정한 네트워크 환경: 저품질 모델 업로드를 초래해 학습 효율을 저하시킬 수 있다

=>연합학습에서, 신뢰할 수 없는 Local model의 업로드를 막는 것이 중요하다

5.2 Future work

5.2.1 Privacy restrictions

  • 디바이스 batch에 따라 더 상세한 프라이버시 제한 정의가 필요
  • specific sample의 강력한 프라이버시 보장을 제공하기 위한 방법이 요구됨

=>디바이스별 프라이버시 제한에 기반한 프라이버시 보호 방법 개발

5.2.2 Trade-off between communication cost and computational pressure

  • 연합 학습의 효율성을 높이기 위한 2가지 방법
    -small message 반복 전송: 모델 압축 기술을 활용하여 통신되는 데이터 크기를 줄임
    -통신 round의 전체 양을 줄임: 모델의 중요도에 따라 통신할 모델을 선별하여 전송
  • 두 가지 방법을 통합: 통신 비용 확 줄어들지만 계산량 많아지는 문제

=>적적한 trade-off를 찾는 것이 중요

5.2.3 Multi-center federated learning

  • 시스템 내 기기들의 이질성을 미리 파악하면, 기기들을 유사한 이질성에 따라 그룹으로 나누고 각 그룹에 로컬 중앙 서버를 배정 가능
  • 유사한 이질성을 가진 기기 모델을 먼저 집계한 후, 이를 서버에 보내 글로벌 모델로 통합

=>다중 센터 연합 학습을 통해 이질성 문제를 해결하는 방안 탐구

5.2.4 Reliable client selection

  • 신뢰할만한 client를 찾는 것이 중요
  • client의 reliability를 측정하는 방법: reputation(명성,평판)을 metric으로 제시→모델 업데이트마다 신뢰도가 높은 클라이언트를 선택하여 학습 신뢰성을 확보

=>신뢰할 수 있는 클라이언트를 기반으로 한 연합 학습 개선

 

 

Conclusion

연합학습의 주요 장점

  • 데이터 부족 문제 해결: 데이터를 노출하지 않고 다중 사용자의 모델을 통합하여 전체 모델을 업데이트 가능
  • label 부족 문제 해결: 보안 모델 공유 메커니즘을 제공+특정 작업으로 모델을 전이하여 라벨 부족 문제 해결