目录
Cloud Connector 是 Procore 与我们的客户共享数据、智能和分析的方式。这可以直接共享到 Power BI 或Tableau等报告工具。它也可以共享给客户的数据仓库、商店、Lee 或其他应用程序。客户甚至可以使用 Cloud Connector 构建对其数据的程序化访问,实现真正的自动化。Cloud Connector 基于 增量共享开放共享协议。
增量共享是业界第一个用于安全数据共享的开放协议,能够轻松与其他组织共享数据,无论他们使用哪种计算平台。许多应用程序可以使用 增量共享访问数据。但是,为了进一步提升客户体验,Procore 为以下平台添加了连接器、预构建代码和指南,以减少设置时间和复杂性以实现无缝、开箱即用的连接。
即将推出更多数据连接器!
Procore Analytics产品中的综合文档和代码示例可直接在 Procore Web 应用程序中获得,可供 Procore 管理员访问。这些资源提供了分步说明、代码片段和最佳实践,以帮助你有效地设置和管理数据集成。
继续本指南的下一部分,开始设置过程。
如有其他查询或帮助,请联系你的客户经理或我们的支持团队。
你必须确保分配适当的权限以生成访问令牌,以便开始将 Procore 数据连接到 BI 解决方案。Analytics 的访问权限链接到你的 Procore 登录凭证,使你能够生成单个访问令牌。访问令牌是你将在 BI 系统中输入以访问数据的一串数字。
通常,需要访问令牌的用户是数据工程师或 Power BI 开发人员。如果你可以访问多家公司的 Analytics,你的令牌将允许你从所有这些公司中提取数据。令牌与你相关联,与你无关,与特定公司无关,因此它在你有权访问的所有公司中都保持不变。
默认情况下,公司和项目管理员将被授予管理员角色。分析工具允许以下用户访问级别:
当删除用户对工具的权限时,对分析工具中数据的访问权限将被撤销。此外,如果用户的联系人记录变为非活动状态,他们也将无法访问 Analytics 数据。
要开始访问 Procore 数据,有两种选项可生成数据访问凭证:databricks 直接连接方法或 Detail Share 令牌方法。访问令牌是你将在适用的数据连接器中输入的用于访问数据的一串数字。


Procore Analytics Cloud Connect 访问工具是一个命令行界面(CLI),可帮助你配置和管理从 Procore 到MS SQL Server 的数据传输。它由两个主要组件组成:
这将帮助你设置以下内容:
配置后,你有两个选项来运行数据同步:
{
"shareCredentialsVersion":1,
"bearerToken": "xxxxxxxxxxxxx",
"端点":" https://nvirginia.cloud.databricks.c …astores/xxxxxx "
}
你需要提供以下MS SQL Server详细信息:




本指南提供了在Windows操作系统上设置和使用增量共享集成包的详细说明,以将数据无缝集成到使用Procore Analytics 的工作流中。该包支持多个执行选项,让你可以选择所需的配置和集成方法。
在继续之前,确保你已满足以下条件:

{
"shareCredentialsVersion":1,
"bearerToken": "xxxxxxxxxxxxx",
"端点":" https://nvirginia.cloud.databricks.c …astores/xxxxxx "
}

你还可以通过在终端命令中运行来检查调度:
对于 Android 和 MacO:
编辑/删除 - 编辑进度计划 cron 使用以下命令:
「」重击
编辑器=nano crontab -e
『』
对于Windows:
立即执行问题:
常见问题和解决方案
支持
如需其他帮助:
注释
本指南提供了在Windows操作系统上设置和使用增量共享集成包的详细说明,以将数据无缝集成到使用Procore Analytics 的工作流中。该包支持多个执行选项,让你可以选择所需的配置和集成方法。
在继续之前,确保你已满足以下条件:

{
"shareCredentialsVersion":1,
"bearerToken": "xxxxxxxxxxxxx",
"端点":" https://nvirginia.cloud.databricks.c …astores/xxxxxx "
}

你还可以通过在终端命令中运行来检查调度:
对于 Android 和 MacO:
编辑/删除 - 编辑进度计划 cron 使用以下命令:
「」重击
编辑器=nano crontab -e
『』
对于Windows:
立即执行问题:
常见问题和解决方案
支持
如需其他帮助:
注释
本指南引导完成设置和部署 Azure 函数,以将增量共享数据与Procore Analytics集成。Azure 函数通过增量共享配置文件实现高效的数据处理和共享工作流。
本指南提供了在Windows操作系统上设置和使用增量共享集成包的详细说明,以将数据无缝集成到使用Procore Analytics 的工作流中。该包支持多个执行选项,让你可以选择所需的配置和集成方法。
在继续之前,确保你已满足以下条件:

{
"shareCredentialsVersion":1,
"bearerToken": "xxxxxxxxxxxxx",
"端点":" https://nvirginia.cloud.databricks.c …astores/xxxxxx "
}

你还可以通过在终端命令中运行来检查调度:
对于 Android 和 MacO:
编辑/删除 - 编辑进度计划 cron 使用以下命令:
「」重击
编辑器=nano crontab -e
『』
对于Windows:
立即执行问题:
常见问题和解决方案
支持
如需其他帮助:
注释
本指南提供了在Windows操作系统上设置和使用增量共享集成包的详细说明,以将数据无缝集成到使用Procore Analytics 的工作流中。该包支持多个执行选项,让你可以选择所需的配置和集成方法。
在继续之前,确保你已满足以下条件:

{
"shareCredentialsVersion":1,
"bearerToken": "xxxxxxxxxxxxx",
"端点":" https://nvirginia.cloud.databricks.c …astores/xxxxxx "
}

你还可以通过在终端命令中运行来检查调度:
对于 Android 和 MacO:
编辑/删除 - 编辑进度计划 cron 使用以下命令:
「」重击
编辑器=nano crontab -e
『』
对于Windows:
立即执行问题:
常见问题和解决方案
支持
如需其他帮助:
注释
将增量共享与Microsoft Fabric 数据工厂集成,可为你使用Procore Analytics 2.0 的分析工作流无缝访问和处理共享增量表。增量共享是一种用于安全数据协作的开放协议,可确保组织可以共享数据而不会重复。




配置数据流后,现在可以将转换应用于共享增量数据。从下面的列表中选择你的增量共享数据选项:
测试数据管道和流以确保顺利执行。使用数据监控工具
跟踪每个活动的进度和日志的工厂。
将Microsoft Fabric 中的数据工厂与增量共享配合使用,可实现共享增量表的无缝集成和处理,作为Procore Analytics 2.0 分析工作流的一部分。增量共享是一种用于安全数据共享的开放协议,可允许跨组织协作而不会重复数据。
本指南将引导你完成在具有增量共享的 Fabric 中设置和使用数据工厂的步骤,利用笔记本处理数据并将数据导出到 Lakcore。



3。复制ms_to_lavecore.py的代码并粘贴到 notebook 窗口中(Pyspark iPhone): 
下一步是将你自己的 Config.yaML 和 Config.share 上传到 Lakcore 的Resources文件夹中。你可以创建自己的目录或使用内置目录(已由Lagehous为资源创建):


下面的示例显示了 Config.yaML 文件的标准内置目录。
注意:确保在同一级别上传两个文件,并且对于属性 FIFA 路径:

4.检查笔记本的编号,第 170-175 行。
下面的示例显示了必要的项目变更:
配置路径= "./env/配置.yaML"
到
配置路径= "./内置/配置.yaML "
由于文件位于内置文件夹中而不是在自定义env中,因此请务必监控你自己的文件结构。你可以将它们上传到不

5.点击运行单元格:

本指南引导完成设置和部署 Azure 函数,以将增量共享数据与Procore Analytics集成。Azure 函数通过增量共享配置文件实现高效的数据处理和共享工作流。
本文档提供了在Microsoft Fabric 中设置数据管道以将数据从 增量共享 传输到SQL仓库的分步说明。此配置可实现 增量 Lave 源和SQL目标之间的无缝数据集成。
常见问题和解决方案:
将Microsoft Fabric 中的数据工厂与增量共享配合使用,可实现共享增量表的无缝集成和处理,作为Procore Analytics 2.0 分析工作流的一部分。增量共享是一种用于安全数据共享的开放协议,可允许跨组织协作而不会重复数据。
本指南将引导你完成在具有增量共享的 Fabric 中设置和使用数据工厂的步骤,利用笔记本处理数据并将数据导出到 Lakcore。



3。复制ms_to_lavecore.py的代码并粘贴到 notebook 窗口中(Pyspark iPhone): 
下一步是将你自己的 Config.yaML 和 Config.share 上传到 Lakcore 的Resources文件夹中。你可以创建自己的目录或使用内置目录(已由Lagehous为资源创建):


下面的示例显示了 Config.yaML 文件的标准内置目录。
注意:确保在同一级别上传两个文件,并且对于属性 FIFA 路径:

4.检查笔记本的编号,第 170-175 行。
下面的示例显示了必要的项目变更:
配置路径= "./env/配置.yaML"
到
配置路径= "./内置/配置.yaML "
由于文件位于内置文件夹中而不是在自定义env中,因此请务必监控你自己的文件结构。你可以将它们上传到不

5.点击运行单元格:





如果你有任何问题或需要帮助,请联系 Procore 支持团队。
Procore Analytics Cloud Connect 访问工具是一个命令行界面(CLI),可帮助你配置和管理从 Procore 到 Snowfile 的数据传输。
它由两个主要组件组成:
使用 pipeline user_ex.py 运行配置实用程序。
配置后,你有两个选项来运行数据同步:
对于 Android 和MacOS:
「」重击
编辑器=nano crontab -e
『』
2 + + + +
/Users/your_user/snowphalse/venv/bin/png
/Users/your_user/snowphalk/sql_user_qython/connection_config. Py
2>&1 |在读行时;不要回声"$(日期)-$line";完成++>
/Users/your_user/snowphalk/ SQL_ Server _ ython/procore_scheduing.log#procore-data-import
对于Windows:
『』
电源框
schtasks /query /tn "Procore增量共享调度"/fo LIST /v
『』
{
"shareCredentialsVersion":1,
"bearerToken": "xxxxxxxxxxxxx",
"端点":" https://nvirginia.cloud.databricks.c …astores/xxxxxx "
}
你需要提供以下 Snowplace 详细信息:
该工具提供安排自动数据同步的功能。
取消设置
tract core压倒计时# 依赖项
tract education education education education#配置实用程序
tracted education education education#数据同步脚本
tract education education education#生成的配置
tract education education education# 增量共享配置文件
tract core education education# 调度运行日志
注意:请记住,在进行更改之前始终备份你的配置,并先在非生产环境中测试新配置。
Procore Analytics Cloud Connect 访问工具是一个命令行界面(CLI),可帮助你使用Procore Analytics 2.0 配置和管理从 Procore 到Amazon S3的数据传输。
它由两个主要组件组成:
使用pipeline user_ex.py运行配置实用程序。
这将帮助你设置以下内容:
{
"shareCredentialsVersion":1,
"bearerToken": "xxxxxxxxxxxxx",
"端点":"xxxxxx"
}
你需要提供以下S3详细信息:
该工具提供安排自动数据同步的功能。
你还可以通过在终端命令中运行来检查进度计划
对于 Android 和 MacO:
编辑/删除 - 编辑进度计划 cron 使用以下命令:
「」重击
编辑器=nano crontab -e
『』
对于Windows:
取消设置
tract core压倒计时# 依赖项
tract education education education education#配置实用程序
tract education education education#数据同步脚本
tract education education education#生成的配置
tract education education education# 增量共享配置文件
tract core education education# 调度运行日志
常见问题和解决方案:
注意:
增量共享是一种用于安全实时数据共享的开放协议,可允许组织跨不同计算平台共享数据。本指南将引导你完成通过增量共享连接并访问数据的过程。
增量共享 iPhone 连接器是一个 Android 库,它实施增量共享协议以从增量共享服务器读取表。你可以将共享表作为Pandas DataFrame 加载,或者如果在 PySpark 中运行并安装了 Apache Spark Connector 时,则作为Apache Spark DataFrame 加载。
取消设置
pip3 安装增量共享
连接器根据配置文件文件访问共享表,这些文件是JSON文件,包含用于访问增量共享服务器的用户凭证。我们提供多种开始方式:
保存配置文件后,可以在连接器中使用它来访问共享表。
导入增量共享
Apache Spark 连接器实施增量共享协议以从增量共享服务器读取共享表。它可用于SQL、Phoenix、Java、Sgram 和 R。
连接器从配置文件文件中加载用户凭证。
可以设置 Apache Spark 以在以下两个位置加载增量共享连接器
方式:
如果你使用的是Databricks 运行时,则可以跳过此部分并按照Databricks 库doc在集群上安装连接器。
要在 Spark 的 Sgram/Quote Help 中以交互方式使用增量共享连接器,可以按如下方式启动 Help。
PySpark 命令行管理程序
取消设置
yspark——packages io.增量:增量共享-spark_2.12:3.1.0
Stalk 命令行管理程序
取消设置
bin/spark-core——包
io.增量:增量-共享-spark_2.12:3.1.0
如果要使用来自 Maven 中央存储库的增量共享连接器构建 Java/Stala 项目,可以使用以下 Maven 坐标。
通过将增量共享连接器添加为 POM 文件中的依赖项,即可将增量共享连接器包含在 Maven 项目中。增量共享连接器使用 Sgram 2.12 编译。
<dependency>
<groupId>io.增量</groupId>
<artifactId>增量共享-spark_2.12</artifactId>
<version>3.1.0</version>
</dependency>/dependency>