Скажем так, вы можете загрузить в PBI или PP практически любое кол-во строк - все зависит от ресурсов процессора и оперативной памяти. Но даже если Вы, как разработчик в PBI или PP, установите себе супер многоядерный процессор и сотни гигов оперативы, чтобы обрабатывать милиарды строк к примеру. То это не будет работать у конечного пользователя в облаке или локальном сервере, т.к. там другие ресурсы и они ограничены. Если ваши исходные данные оперируют 100-и млн или миллиарды строк и вы их хотите обрабатывать в PBI (PP), то вам сначала следует определить уровень гранулярности, до которого потребуется анализировать данные и предварительно группировать и хранить данные уже в нужном виде и объеме. Для это лучше всего создать отдельное хранилище данных, куда предварительно будут заливаться и обрабатываться исходные данные (к примеру раз в сутки ночью все обновляется). А уже к этому хранилищу цепляетесь и делаете строите аналитику. Я к примеру, использую хранилище, в котором таблица фактов сгруппирована до 50 млн. строк, такой объем спокойно обрабатывается и в PP, и в PBI, имея 16 ГБ оперативы и core i5-7500 на борту. Отвечая на первоначальный вопрос:
Цитата |
---|
Анастасия С написал: достаточно ли будет изучить Power Query и Power Pivot для обработки массивов крупных |
да, если создать отдельное хранилище (DWH). Но для создания DWH нужен разработчик БД - там определенно другие знания требуются.