数据分析师如何从数据集中获取即时的答案
来源:CPDA数据分析师网 / 时间:2020-04-20
我们的数据探索和可视化无论数据的大小或格式如何,都可以从Dataiku中的数据中获得即时见解,并与您的团队共享。
怎样从数据集中获取即时见解
1、创建有关数据集的自动报告,并指出潜在的数据质量问题。
2、生成单变量和多变量统计信息以生成详细的数据集审核报告。
3、过滤和搜索数据的方式与在Excel中一样容易。
4、通过在分析中使用自定义语义来利用您的业务和领域知识。
5、通过在Spark,Hadoop或SQL引擎上透明运行来扩展见解,从而扩展您的分析。
数据分析师可以一键创建数据可视化
1、拖放数据以从25种以上的内置图表格式创建图形,以增强数据探索和即时视觉洞察力。
2、使用HTML,Javascript,Bokeh(Python)或Shiny(R)开发您自己的自定义数据可视化应用程序。
3、借助Dataiku仪表板,可以与业务利益相关者发布并共享所有见解。
数据分析师可以使用Python,R和SQL笔记本交互式地分析数据
1、使用交互式(REPL)笔记本发现和绘制数据。
2、集成Jupyter以实现高级代码着色和完成(Python和R)。
3、创建自己的可更新自定义报告。
4、将预定义的基于Python的Jupyter Notebooks用于高级分析任务(主题建模,时间序列预测…)
在Dataiku中编码Dataiku使编码和编程成为该平台的公民。
交互式Python,R和SQL笔记本
1、使用交互式(REPL)笔记本发现和绘制数据。
2、集成了Jupyter以进行高级语法着色和完成(Python和R)。
3、创建自己的可更新自定义报告。
4、使用预先设计好的笔记本可以加快工作速度。
5、通过SQL Notebooks(对Hive的支持)以交互方式查询数据库或数据湖。
编码并分享自己的食谱
1、使用您喜欢的(大数据)编程语言添加任意的自定义逻辑。
2、用Python,R,SQL,Shell,Hive,Impala,Pig,Spark SQL,Spark Scala,PySpark,SparkR或sparklyr编写自己的食谱。
3、保存您有用的代码段,并与其他用户共享。
4、通过将Python或R作业提交到Kubernetes集群来扩展代码。
编写自己的可视化文件
1、使用的Javascript库(d3.js,Leaflet,plot.ly等)创建自己的基于Web的可视化文件。
2、使用Python后端创建高级Web应用程序。
3、使用Bokeh或Shiny创建引人注目的交互式可视化。
4、API密钥管理可确保所有自定义Web应用程序的安全。
创建可重用的组件和环境
1、通过共享的Python或R库重用现有的代码资产。
2、通过使用R或Python开发插件来扩展本机Dataiku功能。
3、创建R或Python代码环境以确保可重复性和兼容性。
4、为您的Dataiku场景创建基于Python的自定义步骤。
返回列表