/ ANKI.csv
ANKI.csv
1 Термин;Пример использования;объяснение 2 Federated Learning;Клавиатура на телефоне улучшается по данным многих пользователей без выгрузки их сообщений.;Federated learning это обучение общей модели на распределенных данных клиентов без прямой централизации сырых данных. 3 Centralized training;Компания собирает все логи в одно хранилище и обучает модель в датацентре.;Centralized training это обычный режим, где данные перемещают в центр перед обучением. 4 Model dispatch;Сервер отправляет новую версию модели на выбранные телефоны перед началом раунда.;Model dispatch это рассылка текущей global model клиентам для локального обучения. 5 On-device training;Телефон дообучает модель на локальной истории набора текста.;On-device training это локальное обучение копии модели на устройстве пользователя. 6 Update aggregation;Сервер собирает обновления от клиентов и строит новую общую модель.;Update aggregation это объединение client updates в одну global model. 7 Model synchronization;После агрегации сервер снова рассылает модель на устройства.;Model synchronization это возврат обновленной global model клиентам для следующего раунда. 8 Client;Смартфон получает модель и обучает ее на своих локальных данных.;Client это участник federated learning, который хранит данные и вычисляет локальное обновление. 9 Server;Координационный сервер выбирает клиентов и усредняет их обновления.;Server это узел оркестрации и агрегации в federated learning. 10 Private Data;История кликов пользователя остается на его устройстве и не уходит в центральное хранилище.;Private data это локальные данные клиента, используемые для обучения на месте. 11 Global Model;Все клиенты получают одну и ту же текущую версию модели перед обучением.;Global model это общая версия модели, поддерживаемая сервером между раундами. 12 Local Update;После локального обучения клиент отправляет измененные веса или их дельту.;Local update это результат локального обучения клиента, который участвует в агрегации. 13 Communication Round;Один раунд включает рассылку модели обучение агрегацию и новую рассылку.;Communication round это полный цикл одного шага федеративного обучения. 14 Training paradigm;Federated learning удобно сравнивать с centralized training как два разных режима обучения.;Training paradigm это общий способ организации обучения модели и движения данных в системе. 15 FedAvg;Сервер усредняет обновления клиентов с учетом числа их локальных примеров.;FedAvg это базовый алгоритм агрегации для federated learning. 16 Non-IID Data;У одного пользователя в фото почти только кошки, а у другого почти только машины.;Non-IID data это разные распределения данных у разных клиентов. 17 Secure Aggregation;Сервер видит только итоговое агрегированное обновление без явного доступа к каждому вкладу.;Secure aggregation это защита, скрывающая индивидуальные client updates во время агрегации. 18 Base model;В начале раунда все устройства стартуют с одной и той же начальной модели.;Base model это отправляемая клиентам исходная версия global model в текущем раунде. 19 Train;После получения модели устройство делает несколько локальных шагов оптимизации на своих данных.;Train это операция локального обучения, которая превращает base model в client update. 20 Trained Model A;После локального обучения первый клиент возвращает свою обновленную версию модели.;Trained Model A это пример локально обученной модели или обновления одного клиента. 21 Trained Model B;Второй клиент обучает модель на своих данных и отправляет результат на сервер.;Trained Model B это еще один локальный результат обучения отдельного клиента. 22 Trained Model C;Третий клиент тоже вносит свой вклад в общую агрегацию.;Trained Model C это локальный update еще одного клиента в том же раунде. 23 Centralized Model;После агрегации сервер получает новую общую модель для следующего раунда.;На схеме Centralized Model лучше понимать как global model, а не как централизованные данные. 24 Hosts;Сервер на схеме hosts исходную и обновленную модель между раундами.;Hosts это подпись на схеме, указывающая что сервер хранит и обслуживает общую модель. 25 Dispatch back to device;После агрегации новая модель снова уходит на клиентские устройства.;Dispatch back to device это обратная рассылка обновленной global model для следующего раунда. 26 Client sampling;Сервер выбирает лишь часть доступных устройств для участия в раунде.;Client sampling это стратегия отбора клиентов, уменьшающая стоимость и учитывающая доступность устройств. 27 Bandwidth cost;Большая модель тяжело рассылается и возвращается по мобильной сети.;Bandwidth cost это сетевые затраты на передачу модели и обновлений между сервером и клиентами. 28 Client heterogeneity;Один телефон быстро обучается по Wi-Fi, а другой часто отключается и имеет мало памяти.;Client heterogeneity это различие клиентов по данным, скорости и вычислительным ресурсам. 29 Privacy benefit;Данные чатов не отправляются в центральное хранилище при обучении подсказок.;Privacy benefit это снижение необходимости переносить сырые пользовательские данные в центр. 30 Privacy limit;Даже без сырых данных сервер может попытаться извлечь информацию из обновлений.;Privacy limit это факт, что federated learning сам по себе не гарантирует полную приватность. 31 Aggregation rule;Система может использовать простое усреднение или более устойчивое правило объединения.;Aggregation rule это способ, по которому сервер объединяет client updates. 32 User device;Смартфон пользователя выступает и источником данных и вычислительным узлом.;User device это физическое устройство клиента, на котором идет локальное обучение. 33 Workflow stage;На схеме отдельно показаны рассылка обучение агрегация и синхронизация.;Workflow stage это отдельный этап внутри полного цикла federated learning. 34 System role;Сервер координирует процесс, а клиент обучает локальную копию модели.;System role это функциональная роль узла в общей системе federated learning. 35 Model artifact;Base model и local update обозначают разные состояния модели в процессе.;Model artifact это конкретное состояние или представление модели внутри pipeline. 36 Data placement;Private data остается на клиенте, а global model координируется сервером.;Data placement это описание того, где физически находятся данные и модельные артефакты в системе. 37 Constraint;Privacy, bandwidth и non-IID data ограничивают дизайн federated learning.;Constraint это практический фактор, который влияет на сходимость, стоимость или надежность обучения. 38 Round completion;После обратной рассылки глобальной модели можно запускать следующий цикл обучения.;Round completion это момент, когда synchronization завершает текущий communication round. 39 Edge training;Носимое устройство подстраивает модель активности под локальные сигналы.;Edge training это обучение модели прямо на конечном устройстве рядом с данными. 40 Markdown knowledge base;Ученик открывает индекс затем шаги затем concept notes и повторяет связи между ними.;Markdown knowledge base это связанный набор заметок для быстрого обучения, навигации и повторения темы.