Здравствуйте! Имеется база данных о продажах на сервере подрядчика с созданными им структурой, мерами и т.д. На этой базе построены сводные таблицы с графиками. Мне нужно создать срез, который фильтровал бы график по ТОР-20 брендам - по каждому из них по отдельности. Я создала набор из этих 20 брендов, но по набору нельзя создать срез. Выгружать данные с сервера, создавать модель данных с таблицей ТОР-20 и делать срез по ней - не вариант, т.к. база очень объёмная. Есть ли другие способы?
AlienSx, огромное спасибо! То, что у вас получилось, мне и надо! Пытаюсь понять, как вам удалось избавиться от unpivot. Сейчас опробую на масштабном файле.
написал: из примера не совсем понятно какая же все-таки структура исходных данных.
Alex, исправляюсь - прилагаю более развёрнутый пример исходных данных, а также желаемый результат. Да, я проделываю описанные вами шаги, но проблема возникает, когда я делаю unpivot - это действие и все последующие выполняются адски медленно. Чистка ошибок в исходном файле не помогла. Буду признательна за совет, что не так с исходным файлом или с запросом, если в нём только простейшие действия - переименование столбцов, изменение типа данных и т.д.
написал: не ясно, что из чего разворачивается или сворачивается
Да, простите, неудачный пример. Прилагаю пример исходных данных и файл с желаемым результатом. Причём в файле результата я ещё хочу перемножать и делить столбцы. Но это, как я поняла, лучше делать в PowerPivot. Буду признательна за совет, что не так с исходными данными. Они и правда совсем простые. А может быть, что-то с запросом? Ошибки в исходных файлах я уже почистила, но всё равно работает крайне медленно.
Спасибо, мне подсказали делать вычисления не в PQ, а в PowerPivot. Макрос для "разворота" знаю (только благодаря Николаю), но тогда в таблице будет больше миллиона строк, а мне ещё вычисления в ней делать надо. А что "шибко опасного" в макросе для разворота?
написал: если есть ошибки - это уже прямой путь к серьезным тормозам,
voler83, спасибо за ответ! Да, в исходных файлах есть ошибки. Почищу предварительно. В каждом из восьми файлов - несколько сот тысяч строк. К сожалению, у меня нет вариантов сделать "разворачивание" последним действием, т.к. из полученных столбцов - например, продажи в деньгах и в штуках - мне надо будет считать ещё и цену за шт., и другие показатели. Прилагаю пример исходного файла.
написал: небольшой файл-пример со структурой исходных данных и конечным желаемым результатом
Alex, спасибо за ответ! Прилагаю пример исходных данных. По каждому артикулу 6 показателей: объём продаж, продажи в деньгах и шт., дистрибуция взвешенная и нумерическая, средние продажи на ТТ. Когда отменяю свёртывание столбцов с датами, т.е. привожу в минимально рабочий вид, то количество строк далеко зашкаливает за миллион. Поэтому делать вычисления в сводной таблице не решусь - эта функция и на меньших массивах данных работает медленно. Желаемый результат - это наличие в модели данных столбцов "Год" и "Месяц" (это я в PQ умею ), вычисленная цена за единицу объёма и за штуку. Вашу мысль по поводу использования PQ по назначению поняла. Попробую делать вычисления в PowerPivot. Боюсь, без новых вопросов не обойдётся
Здравствуйте! Собираю 8 файлов .csv из одной папки, произвожу простые операции - удаление ошибок, переименование столбцов и т.д. Всё работает, хотя и занимает 1-2 минуты. А вот после "разворачивания" (pivot), когда содержимое столбца становится заголовками новых столбцов, запрос начинает капитально тормозить - выполняется по 1,5-2 часа. Проблема в том, что мне надо делать операции с получившимися в результате "разворачивания" столбцами, а каждое действие (например, умножить столбец на число) занимает вот это огромное время. Кроме того, при открытии файла начинает выполняться последняя операция, т.е. просто чтобы приступить к работе, нужно 1,5-2 часа. Я уже отключила и фоновое обновление, и уровни конфиденциальности. На форуме много писали об увеличении скорости работы запросов с помощью функции Table.Buffer. Есть и статья Н. Павлова, где она упоминается: https://www.planetaexcel.ru/techniques/7/19014/#11343 (в середине статьи). Но там речь идёт о сокращении времени выполнения с двух минут до одной. Поэтому я думаю, что у меня что-то фундаментально не так с запросом, если он выполняется два часа. Соответственно, Table.Buffer и не поможет - я его вставила, возможно, неправильно, у меня нет опыта работы с кодом, и запрос снова выполняется очень долго. Подскажите, пожалуйста, в чём может быть причина.
написал: определяйтесь, куда профессионально хотите развиваться
Спасибо за ответ! Я маркетолог, у меня фокус на содержательной части, поэтому уходить в базостроение точно не планирую. А для пп.1-2 достаточно Power Pivot, Power Query, Power BI? Как вы считаете?
написал: ИринаЗ , Если -Цитата ИринаЗ написал:углубляться в Power Pivot, PowerBI и Power Query?- это инструменты для анализа, то Цитата ИринаЗ написал:PostgreSQLэто доступ СУБД и запросы в синтаксисе приемлемом для него. Для аналитика важно из сырых или не совсем сырых данных сделать выборку и получить какой-либо расчет по ним. Это делают инструменты. Их возможности , в свою очередь, определяют как они подключаются к сырым данным. Вполне возможно, что при одинаковых или сравнительно одинаковых отчетов, которые вам нужны Python будет полезен, но для разового отчета писать код может оказаться крайне не эффективным.Но, например положим анализируете то что хранится в 1с. Какой бы вариант СУБД не использовался, разбирать схему еще то занятие, да и только нерадивые дают доступ к базам напрямую , минуя сервер приложения, даже на чтение.
Помогите, пожалуйста, определиться с выбором обучения. Я работаю независимым аналитиком по розничным продажам, обрабатываю данные розничного аудита, а также данные кассовых чеков розничных сетей. Стандартных возможностей Excel уже давно не хватает, поэтому изучаю Power Query по книге Николая. Есть опыт создания БД в MS Access. Пытаюсь осваивать язык DAX в Power Pivot.