今天要分享的工作流,可以解决很多自媒体人的需求,快速批量将公众号历史文章及数据写入飞书多维表格,方便拆解分析。(这篇是前两篇的续篇,有些重复内容就不再细写了)
整体工作流如下图(本例n8n版本为1.121.3)
节点1,Manual Trigger,手动触发节点
节点2,Edit Fields(简称set节点),用于设置工作流常用字段。
这里需要配置微小榜API密钥(微信扫码登录,https://data.wxrank.com/?invite=o4zZB56DZNFnbSnxBUzFojA09oCY),关于此API介绍,详见永不枯竭的灵感池,把搜一搜变成自动选题库!第①部分。
biz是公众号特有的字段,可以通过前面两篇工作流获取,也可以在浏览器打开某个公众号文章链接,查看网页源代码获取(快捷键ctrl+u,搜索biz,一般第一个就是)
节点参数填写如下(这里以数字生命卡兹克公众号为例),点击下图中Execute step可单独运行本节点,出现右侧数据
节点3,HTTP Request,这里通过推文列表接口获取总推文次数
需要获取到的是total_count这个字段值(历史总推文次数)
参数填写参考如下,执行后可以看到数字生命卡兹克历史总推文次数为581次(注:每次推文可以发布≥1篇)
节点4,Code,这里提取出total_count的值,计算出总页数(每页5次推文,把total_count的值除以5,如果有小数点则进一,比如21除以5=4.2,表示有5页),然后生成页码索引的数组,后后面的循环节点使用。
节点5,Limit,测试时使用,可以限制API请求次数,减少不必要成本
如下图所示,Max Items填写2后,就将左侧的117 items限制为2了。
节点6,Loop,循环处理,每次只获取一页内容数据(5次推文)
注意:添加loop节点后,把Replace Me删除
节点7,HTTP Request,这里仍然是用到推文列表接口,不过这次的目的是获取对应每页每篇文章链接,供后面的http节点使用。
节点参数如下,目的是获取到art_url(文章链接)
如果仔细观察前面一个节点给出的数据,会发现art_url被嵌套在数组里面,如果只是一个还好,但至少有5个链接分散在数组的数组的数组里,如果用split out节点,需要连续使用2个才能取出所需数据,所以这里用1个code节点直接取出,参数及效果如下
对应API文档如下,可以获取阅读、点赞、在看、分享、收藏、留言数(需要传入comment_id,通过上一个节点获取到)
节点11,配置要写入飞书多维表格的字段(比如文章链接,摘要,内容,各种数据)
节点12如果想运行成功,还需先创建好多维表格,参考如下,注意点:不能是知识库创建的表格,需要在云文档-云盘处创建;n8n中配置的字段名和字段格式必须和多维表格内的完全一致,不然会写入错误
最后,附上工作流和多维表格模板链接(https://pan.quark.cn/s/f289beeea990)。
好了,今天的内容就到这里,觉得有帮助的话,点赞收藏关注,我们下期见!
原文链接:https://mp.weixin.qq.com/s/h9-yI1ffMVr52RDJDB5IYA
暂无评论内容