/ ANKI.csv
ANKI.csv
 1  Термин;Пример использования;объяснение
 2  Federated Learning;Клавиатура на телефоне улучшается по данным многих пользователей без выгрузки их сообщений.;Federated learning это обучение общей модели на распределенных данных клиентов без прямой централизации сырых данных.
 3  Centralized training;Компания собирает все логи в одно хранилище и обучает модель в датацентре.;Centralized training это обычный режим, где данные перемещают в центр перед обучением.
 4  Model dispatch;Сервер отправляет новую версию модели на выбранные телефоны перед началом раунда.;Model dispatch это рассылка текущей global model клиентам для локального обучения.
 5  On-device training;Телефон дообучает модель на локальной истории набора текста.;On-device training это локальное обучение копии модели на устройстве пользователя.
 6  Update aggregation;Сервер собирает обновления от клиентов и строит новую общую модель.;Update aggregation это объединение client updates в одну global model.
 7  Model synchronization;После агрегации сервер снова рассылает модель на устройства.;Model synchronization это возврат обновленной global model клиентам для следующего раунда.
 8  Client;Смартфон получает модель и обучает ее на своих локальных данных.;Client это участник federated learning, который хранит данные и вычисляет локальное обновление.
 9  Server;Координационный сервер выбирает клиентов и усредняет их обновления.;Server это узел оркестрации и агрегации в federated learning.
10  Private Data;История кликов пользователя остается на его устройстве и не уходит в центральное хранилище.;Private data это локальные данные клиента, используемые для обучения на месте.
11  Global Model;Все клиенты получают одну и ту же текущую версию модели перед обучением.;Global model это общая версия модели, поддерживаемая сервером между раундами.
12  Local Update;После локального обучения клиент отправляет измененные веса или их дельту.;Local update это результат локального обучения клиента, который участвует в агрегации.
13  Communication Round;Один раунд включает рассылку модели обучение агрегацию и новую рассылку.;Communication round это полный цикл одного шага федеративного обучения.
14  Training paradigm;Federated learning удобно сравнивать с centralized training как два разных режима обучения.;Training paradigm это общий способ организации обучения модели и движения данных в системе.
15  FedAvg;Сервер усредняет обновления клиентов с учетом числа их локальных примеров.;FedAvg это базовый алгоритм агрегации для federated learning.
16  Non-IID Data;У одного пользователя в фото почти только кошки, а у другого почти только машины.;Non-IID data это разные распределения данных у разных клиентов.
17  Secure Aggregation;Сервер видит только итоговое агрегированное обновление без явного доступа к каждому вкладу.;Secure aggregation это защита, скрывающая индивидуальные client updates во время агрегации.
18  Base model;В начале раунда все устройства стартуют с одной и той же начальной модели.;Base model это отправляемая клиентам исходная версия global model в текущем раунде.
19  Train;После получения модели устройство делает несколько локальных шагов оптимизации на своих данных.;Train это операция локального обучения, которая превращает base model в client update.
20  Trained Model A;После локального обучения первый клиент возвращает свою обновленную версию модели.;Trained Model A это пример локально обученной модели или обновления одного клиента.
21  Trained Model B;Второй клиент обучает модель на своих данных и отправляет результат на сервер.;Trained Model B это еще один локальный результат обучения отдельного клиента.
22  Trained Model C;Третий клиент тоже вносит свой вклад в общую агрегацию.;Trained Model C это локальный update еще одного клиента в том же раунде.
23  Centralized Model;После агрегации сервер получает новую общую модель для следующего раунда.;На схеме Centralized Model лучше понимать как global model, а не как централизованные данные.
24  Hosts;Сервер на схеме hosts исходную и обновленную модель между раундами.;Hosts это подпись на схеме, указывающая что сервер хранит и обслуживает общую модель.
25  Dispatch back to device;После агрегации новая модель снова уходит на клиентские устройства.;Dispatch back to device это обратная рассылка обновленной global model для следующего раунда.
26  Client sampling;Сервер выбирает лишь часть доступных устройств для участия в раунде.;Client sampling это стратегия отбора клиентов, уменьшающая стоимость и учитывающая доступность устройств.
27  Bandwidth cost;Большая модель тяжело рассылается и возвращается по мобильной сети.;Bandwidth cost это сетевые затраты на передачу модели и обновлений между сервером и клиентами.
28  Client heterogeneity;Один телефон быстро обучается по Wi-Fi, а другой часто отключается и имеет мало памяти.;Client heterogeneity это различие клиентов по данным, скорости и вычислительным ресурсам.
29  Privacy benefit;Данные чатов не отправляются в центральное хранилище при обучении подсказок.;Privacy benefit это снижение необходимости переносить сырые пользовательские данные в центр.
30  Privacy limit;Даже без сырых данных сервер может попытаться извлечь информацию из обновлений.;Privacy limit это факт, что federated learning сам по себе не гарантирует полную приватность.
31  Aggregation rule;Система может использовать простое усреднение или более устойчивое правило объединения.;Aggregation rule это способ, по которому сервер объединяет client updates.
32  User device;Смартфон пользователя выступает и источником данных и вычислительным узлом.;User device это физическое устройство клиента, на котором идет локальное обучение.
33  Workflow stage;На схеме отдельно показаны рассылка обучение агрегация и синхронизация.;Workflow stage это отдельный этап внутри полного цикла federated learning.
34  System role;Сервер координирует процесс, а клиент обучает локальную копию модели.;System role это функциональная роль узла в общей системе federated learning.
35  Model artifact;Base model и local update обозначают разные состояния модели в процессе.;Model artifact это конкретное состояние или представление модели внутри pipeline.
36  Data placement;Private data остается на клиенте, а global model координируется сервером.;Data placement это описание того, где физически находятся данные и модельные артефакты в системе.
37  Constraint;Privacy, bandwidth и non-IID data ограничивают дизайн federated learning.;Constraint это практический фактор, который влияет на сходимость, стоимость или надежность обучения.
38  Round completion;После обратной рассылки глобальной модели можно запускать следующий цикл обучения.;Round completion это момент, когда synchronization завершает текущий communication round.
39  Edge training;Носимое устройство подстраивает модель активности под локальные сигналы.;Edge training это обучение модели прямо на конечном устройстве рядом с данными.
40  Markdown knowledge base;Ученик открывает индекс затем шаги затем concept notes и повторяет связи между ними.;Markdown knowledge base это связанный набор заметок для быстрого обучения, навигации и повторения темы.