Выбрать дату в календареВыбрать дату в календаре

Страницы: 1
как создать срез по набору полей, если БД лежит на сервере у подрядчика
 
Здравствуйте!
Имеется база данных о продажах на сервере подрядчика с созданными им структурой, мерами и т.д. На этой базе построены сводные таблицы с графиками. Мне нужно создать срез, который фильтровал бы график по ТОР-20 брендам - по каждому из них по отдельности.
Я создала набор из этих 20 брендов, но по набору нельзя создать срез.
Выгружать данные с сервера, создавать модель данных с таблицей ТОР-20 и делать срез по ней - не вариант, т.к. база очень объёмная. Есть ли другие способы?
Изменено: ИринаЗ - 03.07.2025 15:36:50
PQ - быстродействие
 
Alex, большое спасибо! Попробую код Артёма.
PQ - быстродействие
 
Artem_1990, большое спасибо! Попробую обязательно. Alex пишет, что у вас самый быстрый вариант получился.
PQ - быстродействие
 
voler83, большое спасибо, попробую! Очень лаконично у вас получилось.
Да, конечно, все преобразования я стараюсь по максимуму делать до unpivot.
PQ - быстродействие
 
AlienSx, огромное спасибо! То, что у вас получилось, мне и надо! Пытаюсь понять, как вам удалось избавиться от unpivot. Сейчас опробую на масштабном файле.
PQ - быстродействие
 
Цитата
написал:
из примера не совсем понятно какая же все-таки структура исходных данных.
Alex, исправляюсь - прилагаю более развёрнутый пример исходных данных, а также желаемый результат. Да, я проделываю описанные вами шаги, но проблема возникает, когда я делаю unpivot - это действие и все последующие выполняются адски медленно. Чистка ошибок в исходном файле не помогла.
Буду признательна за совет, что не так с исходным файлом или с запросом, если в нём только простейшие действия - переименование столбцов, изменение типа данных и т.д.
PQ - быстродействие
 
Цитата
написал:
не ясно, что из чего разворачивается или сворачивается
Да, простите, неудачный пример. Прилагаю пример исходных данных и файл с желаемым результатом. Причём в файле результата я ещё хочу перемножать и делить столбцы. Но это, как я поняла, лучше делать в PowerPivot.
Буду признательна за совет, что не так с исходными данными. Они и правда совсем простые.
А может быть, что-то с запросом? Ошибки в исходных файлах я уже почистила, но всё равно работает крайне медленно.
PQ - быстродействие
 
Цитата
написал:
PQ - плахой быстродействий,
:)
Спасибо, мне подсказали делать вычисления не в PQ, а в PowerPivot. Макрос для "разворота" знаю (только благодаря Николаю), но тогда в таблице будет больше миллиона строк, а мне ещё вычисления в ней делать надо.
А что "шибко опасного" в макросе для разворота?
PQ - быстродействие
 
Цитата
написал:
если есть ошибки - это уже прямой путь к серьезным тормозам,
voler83, спасибо за ответ! Да, в исходных файлах есть ошибки. Почищу предварительно.
В каждом из восьми файлов - несколько сот тысяч строк. К сожалению, у меня нет вариантов сделать "разворачивание" последним действием, т.к. из полученных столбцов - например, продажи в деньгах и в штуках - мне надо будет считать ещё и цену за шт., и другие показатели. Прилагаю пример исходного файла.
PQ - быстродействие
 
Цитата
написал:
небольшой файл-пример со структурой исходных данных и конечным желаемым результатом
Alex, спасибо за ответ! Прилагаю пример исходных данных. По каждому артикулу 6 показателей: объём продаж, продажи в деньгах и шт., дистрибуция взвешенная и нумерическая, средние продажи на ТТ. Когда отменяю свёртывание столбцов с датами, т.е. привожу в минимально рабочий вид, то количество строк далеко зашкаливает за миллион. Поэтому делать вычисления в сводной таблице не решусь - эта функция и на меньших массивах данных работает медленно.
Желаемый результат - это наличие в модели данных столбцов "Год" и "Месяц" (это я в PQ умею :) ), вычисленная цена за единицу объёма и за штуку.
Вашу мысль по поводу использования PQ по назначению поняла. Попробую делать вычисления в PowerPivot. Боюсь, без новых вопросов не обойдётся :)
Изменено: ИринаЗ - 13.06.2024 12:22:27
PQ - быстродействие
 
Здравствуйте!
Собираю 8 файлов .csv из одной папки, произвожу простые операции - удаление ошибок, переименование столбцов и т.д. Всё работает, хотя и занимает 1-2 минуты. А вот после "разворачивания" (pivot), когда содержимое столбца становится заголовками новых столбцов, запрос начинает капитально тормозить - выполняется по 1,5-2 часа.
Проблема в том, что мне надо делать операции с получившимися в результате "разворачивания" столбцами, а каждое действие (например, умножить столбец на число) занимает вот это огромное время. Кроме того, при открытии файла начинает выполняться последняя операция, т.е. просто чтобы приступить к работе, нужно 1,5-2 часа.
Я уже отключила и фоновое обновление, и уровни конфиденциальности. На форуме много писали об увеличении скорости работы запросов с помощью функции Table.Buffer. Есть и статья Н. Павлова, где она упоминается: https://www.planetaexcel.ru/techniques/7/19014/#11343 (в середине статьи). Но там речь идёт о сокращении времени выполнения с двух минут до одной. Поэтому я думаю, что у меня что-то фундаментально не так с запросом, если он выполняется два часа. Соответственно, Table.Buffer и не поможет - я его вставила, возможно, неправильно, у меня нет опыта работы с кодом, и запрос снова выполняется очень долго.
Подскажите, пожалуйста, в чём может быть причина.
Что изучать для построения БД?, Power Pivot, PowerBI, PostgreSQL или что-то ещё?
 
Цитата
написал:
определяйтесь, куда профессионально хотите развиваться
Спасибо за ответ! Я маркетолог, у меня фокус на содержательной части, поэтому уходить в базостроение точно не планирую. А для пп.1-2 достаточно Power Pivot, Power Query, Power BI? Как вы считаете?
Что изучать для построения БД?, Power Pivot, PowerBI, PostgreSQL или что-то ещё?
 
Цитата
написал:
ИринаЗ , Если -Цитата ИринаЗ  написал:углубляться в Power Pivot, PowerBI и Power Query?- это инструменты для анализа, то Цитата ИринаЗ  написал:PostgreSQLэто доступ СУБД и запросы в синтаксисе приемлемом для него. Для аналитика важно из сырых или не совсем сырых данных сделать выборку и получить какой-либо расчет по ним. Это делают инструменты. Их возможности , в свою очередь, определяют как они подключаются к сырым данным. Вполне возможно, что при одинаковых или сравнительно одинаковых отчетов, которые вам нужны Python будет полезен, но для разового отчета писать код может оказаться крайне не эффективным.Но, например положим анализируете то что хранится в 1с.  Какой бы вариант СУБД не использовался, разбирать схему еще то занятие, да и только нерадивые дают доступ к базам напрямую , минуя сервер приложения, даже на чтение.
Спасибо! Действительно, про Питон не подумала.
Что изучать для построения БД?, Power Pivot, PowerBI, PostgreSQL или что-то ещё?
 
Цитата
написал:
Ищите вакансии и смотрите требования.
Спасибо за ответ! Работаю на себя, поэтому вакансии не интересуют. Предпочитаю идти от задачи. Но ответы помогли мне сориентироваться.
Что изучать для построения БД?, Power Pivot, PowerBI, PostgreSQL или что-то ещё?
 

Здравствуйте!

Помогите, пожалуйста, определиться с выбором обучения. Я работаю независимым аналитиком по розничным продажам, обрабатываю данные розничного аудита, а также данные кассовых чеков розничных сетей. Стандартных возможностей Excel уже давно не хватает, поэтому изучаю Power Query по книге Николая. Есть опыт создания БД в MS Access. Пытаюсь осваивать язык DAX в Power Pivot.

Выбираю направление обучения:

  • углубляться в Power Pivot, PowerBI и Power Query?
  • изучать PostgreSQL?
  • что-то другое?
Буду признательна за ваше мнение!

Страницы: 1
Наверх