数据分析师

手机号

验证码

30天自动登录

数据分析师

数据分析师如何从数据集中获取即时的答案

来源:CPDA数据分析师网 / 时间:2020-04-20

我们的数据探索和可视化无论数据的大小或格式如何,都可以从Dataiku中的数据中获得即时见解,并与您的团队共享。


怎样从数据集中获取即时见解

 1、创建有关数据集的自动报告,并指出潜在的数据质量问题。

 2、生成单变量和多变量统计信息以生成详细的数据集审核报告。

 3、过滤和搜索数据的方式与在Excel中一样容易。

 4、通过在分析中使用自定义语义来利用您的业务和领域知识。

 5、通过在SparkHadoopSQL引擎上透明运行来扩展见解,从而扩展您的分析。

数据分析、数据分析可视化


数据分析师可以一键创建数据可视化

 1、拖放数据以从25种以上的内置图表格式创建图形,以增强数据探索和即时视觉洞察力。

 2、使用HTMLJavascriptBokehPython)或ShinyR)开发您自己的自定义数据可视化应用程序。

 3、借助Dataiku仪表板,可以与业务利益相关者发布并共享所有见解。


数据分析师可以使用PythonRSQL笔记本交互式地分析数据

 1、使用交互式(REPL)笔记本发现和绘制数据。

 2、集成Jupyter以实现高级代码着色和完成(PythonR)。

 3、创建自己的可更新自定义报告。

 4、将预定义的基于PythonJupyter Notebooks用于高级分析任务(主题建模,时间序列预测

Dataiku中编码Dataiku使编码和编程成为该平台的公民。

数据分析、数据分析可视化


交互式PythonRSQL笔记本

 1、使用交互式(REPL)笔记本发现和绘制数据。

 2、集成了Jupyter以进行高级语法着色和完成(PythonR)。

 3、创建自己的可更新自定义报告。

 4、使用预先设计好的笔记本可以加快工作速度。

 5、通过SQL Notebooks(对Hive的支持)以交互方式查询数据库或数据湖。


编码并分享自己的食谱

 1、使用您喜欢的(大数据)编程语言添加任意的自定义逻辑。

 2、用PythonRSQLShellHiveImpalaPigSpark SQLSpark ScalaPySparkSparkRsparklyr编写自己的食谱。

 3、保存您有用的代码段,并与其他用户共享。

 4、通过将PythonR作业提交到Kubernetes集群来扩展代码。


编写自己的可视化文件

 1、使用的Javascript库(d3.jsLeafletplot.ly等)创建自己的基于Web的可视化文件。

 2、使用Python后端创建高级Web应用程序。

 3、使用BokehShiny创建引人注目的交互式可视化。

 4API密钥管理可确保所有自定义Web应用程序的安全。


创建可重用的组件和环境

 1、通过共享的PythonR库重用现有的代码资产。

 2、通过使用RPython开发插件来扩展本机Dataiku功能。

 3、创建RPython代码环境以确保可重复性和兼容性。

 4、为您的Dataiku场景创建基于Python的自定义步骤。


返回列表