在Power BI导入模式(PREMIUM容量)中,数据集和存储大小限制是基于压缩还是未压缩的数据?
类似地,当模型加载到内存中时,所使用的内存是基于压缩还是未压缩的数据?
例如,对于数据集,将其压缩。源数据大小为10 X 100mb csv格式的文件(总计1GB)。当加载到数据集中(假设引擎可以以10:1的比例压缩)时,将在内存中产生100mb的数据集。
Power BI / SQL Server Analysis Services(表格)引擎称为Vertipaq。关于它如何压缩的最佳文章在这里。
对于数据流中的项目,也将对其进行压缩,但是它更像是一种基本的ZIP样式压缩,并且效率不高。因此,以这种格式,这10个示例文件可能会占用300mb。
实际上1GB的数据可以压缩到大约100MB,因此pbix文件的大小减小到100MB。但是,这就是存储大小(压缩后)。这与将模型加载到内存中时的模型大小不同。当模型加载到内存中时,整个1GB是否会加载到内存中?还是100MB?我对此感到困惑。对这个概念的任何引用将是有帮助的。
是的,它将由veritpaq引擎进一步压缩,因此它将小于文件存储空间。我建议使用Dax Studio及其指标,以分析内存中数据集的大小
请给我一个参考,说数据流csv数据已压缩/压缩。
如果将pbix更改为zip,则可以看到它,最好的参考是gqbi.wordpress.com/2017/05/02/…