红米更新系统dm5不符dmp是什么么意思

12月17日更新 请问下同时消费多个topic的凊况下在richmap里面可以获取到当前消息所属的topic吗? 各位大佬你们实时都是怎样重跑数据的? 有木有大神知道Flink能否消费多个kafka集群的数据? 这个問题有人遇到吗? 你们实时读取广业务库到kafka是通过什么读的kafka connector 的原理是定时去轮询,这样如果表多了会不会影响业务库的性能?甚至把业務库搞挂 有没有flink 1.9 连接 hive的例子啊?官网文档试了,没成功 请问各位是怎么解决实时流数据倾斜的 请问一下,对于有状态的任务如果任务莋代码升级的时候,可否修改BoundedOutOfOrdernessTimestampExtractor的maxOutOfOrderness呢是否会有影响数据逻辑的地方呢? 老哥们有做过统计从0点开始截止到现在时刻的累计用户数吗 比如伍分钟输出一次,就是7点输出0点到7点的累计用户7:05输出0点到7:05的累计用户。 但是我这里有多个维度现在用redis来做的。 想知道有没有更好的姿勢 实时数仓用什么存储介质来存储维表,维表有大有小大的大概5千万左右。 各位大神有什么建议和经验分享吗 请教个问题,就是flink的窗口触发必须是有数据才会触发吗我现在有个这样的需求,就是存在窗口内没有流数据进入但是窗口结束是要触发去外部系统获取上┅个窗口的结果值作为本次窗口的结果值!现在没有流数据进入窗口结束时如何触发? kafkaSource.setStartFromTimestamp(timestamp); 发现kafkasource从指定时间开始消费有些topic有效,有效topic无效夶佬们有遇到过吗? 各位大佬,flink两个table join的时候为什么打印不出来数据,已经赋了关联条件了但是也不报错 各位大佬 请教一下 一个faile的任务 会茬这里面存储展示多久啊? 各位大佬我的程序每五分钟一个窗口做了基础指标的统计,同时还想统计全天的Uv这个是用State就能实现吗? 大佬们flink的redis sink是不是只适用redis2.8.5版本? 有CEP 源码中文注释的发出来学习一下吗 有没有拿flink和tensorflow集成的? 那位大神给一个java版的flink1.7 读取kafka数据,做实时监控和統计的功能的代码案例 请问下风控大佬,flink为风控引擎做数据支撑的时候怎么应对风控规则的不断变化,比如说登录场景需要实时计算菦十分钟内登录次数超过20次用户这个规则可能会变成计算近五分钟内登录次数超过20次的。 想了解一下大家线上Flink作业一般开始的时候都分配多少内存广播没办法改CEP flink支持多流(大于2流)join吗? 谁能帮忙提供一下flink的多并行度的情况下怎么保证数据有序 例如map并行度为2 那就可能出現数据乱序的情况啊 请教下现在从哪里可以可以看单任务的运行状况和内存占用情况,flink页面上能看单个任务的内存、cpu 大佬们 flink1.9 停止任务手动保存savepoint的命令是啥? flink 一个流计算多个任务和 还是一个流一个任务好 flink 1.9 on yarn, 自定义个connector里面用了jni failover以后 就起不来了, 报错重复load so的问题 我想问一下 这個,怎么解决 难道flink 里面不能用jni吗。 ide里面调试没有问题部署到集群就会报错了,可能什么问题 请教一下对于长时间耗内存很大的任务,大家都是开checkpoint机制采用rocksdb做状态后端吗? 请问下大佬flink jdbc读取mysql,tinyin字段类型自动转化为Boolean有没有好的解决方法 Flink 1.9版本的Blink查询优化器Hive集成,Python API这几个功能好像都是预览版请问群里有大佬生产环境中使用这些功能了吗? 想做一个监控或数据分析的功能如果我flink 的datastreaming实现消费Kafka的数据,但是峩监控的规则数据会增加或修改但是不想停这个正在运行的flink程序,要如何传递这个动态变化的规则数据大神给个思路,是用ConnectedStream这个吗還是用Broadcast ?还有一个比如我的规则数据是存放在Mysql表中,用什么事件隔30秒去触发读取mysql规则表呢谢谢! 想做一个监控或数据分析的功能,如果我flink 的datastreaming实现消费Kafka的数据但是我监控的规则数据会增加或修改,但是不想停这个正在运行的flink程序要如何传递这个动态变化的规则数据,夶神给个思路是用ConnectedStream这个吗?还是用Broadcast 还有一个,比如我的规则数据是存放在Mysql表中用什么事件隔30秒去触发读取mysql规则表呢?谢谢! 各位大佬在一个 Job 计算过程中,查询 MySQL 来补全额外数据是一个好的实践嘛?还是说流处理过程中应该尽量避免查询额外的数据 Flink web UI是jquery写的吗? 12月9日哽新 成功做完一次checkpoint后会覆盖上一次的checkpoint吗? 数据量较大时flink实时写入hbase能够异步写入吗? flink的异步io是不是只是适合异步读取,并不适合异步寫入呀 请问一下,flink将结果sink到redis里面会不会对存储的IO造成很大的压力如何批量的输出结果呢? 大佬们flink 1.9.0版本里DataStream api,若从kafka里加载完数据以后,从這一个流中获取数据进行两条业务线的操作是可以的吗? flink 中的rocksdb状态怎么样能可视化的查看有大佬知道吗 感觉flink 并不怎么适合做hive 中的计算引擎来提升hive 表的查询速度 大佬们,task端rocksdb状态 保存路径默认是在哪里的啊我想挂载个新磁盘 把状态存到那里去 flink 的state 在窗口滑动到下一个窗口时候 上一个窗口销毁时候 state会自己清除吗? 求助各位大佬一个sql里面包含有几个大的hop滑动窗口,如15个小时和24个小时滑动步长为5分钟,这样就會产生很多overlap 数据导致状态会很快就达到几百g,然后作业内存也很快达到瓶颈就oom了然后作业就不断重启,很不稳定请问这个业务场景囿什么有效的解决方案么? 使用jdbcsink的时候如果连接长时间不使用 就会被关掉,有人遇到过吗使用的是ddl的方式 如何向云邪大佬咨询FLink相关技術问题? 请问各位公司有专门开发自己的实时计算平台的吗 请问各位公司有专门开发自己的实时计算平台的吗? 有哪位大佬有cdh集成安装flink嘚文档或者手册 有哪位大佬有cdh集成安装flink的文档或者手册? 想问下老哥们都是怎么统计一段时间的UV的 是直接用window然后count嘛? Flink是不是也是这样嘚 请问现在如有个实时程序,根据一个mysql的维表来清洗但是我这个mysql表里面就只有几条信息且可能会变。 我想同一个定时器去读mysql然后存茬对象中,流清洗的时候读取这个数据这个想法可行吗?我目前在主类里面定义一个对象然后往里面更新,发现下面的map方法之类的读鈈到我更新进去的值 有大佬做过flink—sql的血缘分析吗 12月3日更新 version: "1.4.3" 请问 flink1.9能跑在hadoop3集群上吗? 滑动窗口 排序 报错这个dmp是什么么原因呢? 这个pravega和kafka有啥区别? flink 开發里数据源配置了RDS,但是在RDS里没有看到创建的表是为什么呢? Tumbling Window里的数据是等窗口期内的数据到齐之后一次性处理,还是到了一条就处悝一条啊 双流join后再做time 各位大佬使用默认的窗口Trigger,在什么情况下会触发两次啊窗口关闭后,然后还来了这个窗口期内的数据并且开了allowedLateness麼? flink web里可以像storm那样 看每条数据在该算子中的平均耗时吗 各位大佬,flink任务的并发数调大到160+以后每隔几十分钟就会出现一次TM节点连接丢失嘚异常,导致任务重启并发在100时运行比较稳定,哪位大佬可以提供下排查的思路 感觉stateful function 是下一个要发力的点,这个现在有应用案例吗 峩有2个子网(a子网,b子网)用vpn联通vpn几周可能会断一次。a子网有一个kafka集群b子网运行我自己的flink集群和应用,b子网的flink应用连接到a子网的kafka集群接收消息来处理入库到数仓去我的问题是,如果vpn断开flink consumer会异常整个作业退出吗?如果作业退出我重连vpn后,能从auto flink消费kafka可以从指定时间消费的吗?目前提供的接口只是根据offset消费有人知道怎么处理? flink 的Keyby是不是只是repartition而已没有将key相同的数据放到一个组合里面 电商大屏 大家推薦用什么来做吗? 我比较倾向用数据库因为有些数据需要join其他表,flink充当了什么角色对这个有点迷,比如统计当天订单量卖了多少钱,各个省的销量销售金额,各个品类的销售量销售金额 开源1.9的sql中怎么把watermark给用起来有大神知道吗? 有没有人能有一些flink的教程 代码之类的汾享啊 采用了checkpoint,程序停止了之后什么都不改,直接重启还是能接着继续运行吗?如果可以的话savepoint的意义又dmp是什么么呢? 有人做过flink 的tpc-ds测试吗,能不能分享一下操作的流程方法 checkpoint是有时间间隔的也就可以理解为checkpoint是以批量操作的,那如果还没进行ckecnpoint就挂了下次从最新的一次checkpoint重启,鈈是重复消费了 kafka是可以批量读取数据,但是flink是一条一条处理的应该也可以一条一条提交吧。 各位大佬flink sql目前是不是不支持tumbling window join,有人了解嗎 你们的HDFS是装在taskmanager上还是完全分开的,请问大佬们有遇到这种情况吗? 大佬们flink检查点存hdfs的话怎么自动清理文件啊 一个128M很快磁盘就满了 有谁遇箌过这个问题? 请教一下各位这段代码里面,我想加一个trigger实现每次有数据进window时候,就输出而不是等到window结束再输出,应该怎么加 麻烦問下 flink on yarn 执行 ctime会失去时间属性,有哪位大佬知道的? 你们有试过在同样的3台机器上部署两套kafka吗 大家有没有比较好的sql解析 组件(支持嵌套sql)? richmapfuntion的open/close方法,和处理数据的map方法是在同一个线程,还是不同线程调用的 flink on yarn 提交 参数 -p 20 -yn 5 -ys 3 ,我不是只启动了5个container么 Flink的乱序问题怎么解决? 我对数据流先进荇了keyBy,print的时候是有数据的,一旦进行了timeWindow滑动窗口就没有数据了,请问dmp是什么么情况呢? 搭建flinksql平台的时候,怎么处理udf的呀? 怎么查看sentry元数据里哪些角色囿哪些权限 用java api写的kafka consumer能消费到的消息,但是Flink消费不到这是为啥? 我state大小如果为2G左右 每次checkpoint会不会有压力? link-table中的udaf能用deltaTrigger么? flink1.7.2场景是一分钟为窗口計算每分钟传感器的最高温度,同时计算当前分钟与上一分钟最高温 001 Flink集群支持kerberos认证吗也就是说flink客户端需要向Flink集群进行kerberos认证,认证通过之後客户端才能提交作业到Flink集群运行002 Flink支持多租户吗 如果要对客户端提交作业到flink进行访问控制,你们有类似的这种使用场景吗 flink可以同时读取多个topic的数据吗? Flink能够做实时ETL(oracle端到oracle端或者多端)么 Flink是否适合普通的关系型数据库呢? Flink是否适合普通的关系型数据库呢 流窗口关联mysql中嘚维度表大佬们都是怎么做的啊? 怎么保证整个链路的exactly one episode精准一次,从source 到flink到sink? cc=?,这个问号的参数需要从mysql中获取我用普通的jdbc进行连接可以获的,但昰有一个问题就是我mysql的数据改了之后必须重启flink程序才能解决这个问题,但这肯定不符合要求请问大家有什么好的办法吗? flink里怎样实现哆表关联制作宽表 是直接跳过的 各位大佬以天为单位的窗口有没有遇到过在八点钟的时候会生成一条昨天的记录? 想问一下,我要做一个規则引擎需要动态改变规则,如何在flink里面执行 flink-1.9.1/bin/yarn-session.sh: line 32: construc 我要用sql做一个规则引擎,需要动态改变规则如何在flink里面执行? 我要用sql做一个规则引擎需要动态改变规则,如何在flink里面执行 一般公司的flink job有没有进程进行守护?有专门的工具或者是自己写脚本这种情况针对flink kafka能不能通过java获取topic的消息所占空间大小? Flink container was removed这个咋解决的我有时候没有数据的时候也出现这 大家有没有这种场景,数据从binlog消费这个信息是订单信息,同┅个订单id会有不同状态的变更 问大家个Hive问题,新建的hive外部分区表 怎么把HDFS数据一次性全部导入hive里 ? flink里面的broadcast state值会出现broad流的数据还没put进mapstat Flink SQL DDL 创建表时,如何定义字段的类型为proctime? 请问下窗口计算能对历史数据进行处理吗比如kafka里的写数据没停,窗口计算的应用停掉一段时间再开起 请問下想统计未退费的订单数量,如果一个订单退费了(发过来一个update流)flink能做到对结果进行-1吗,这样的需求sql支持吗? 使用Flink sql时,对table使用了group by操作然后将结果转换为流时是不是只能使用的toRetractStream方法不能使用toAppendStream方法。 百亿数据实时去重有哪位同学实践过吗? 你们的去重容许有误差因为bloom filter其实只能给出【肯定不存在】和【可能存在】两种结果。对于可能存在这种结果你们会认为是同一条记录? 我就运行了一个自带的示例一运行就报错然后web页面就崩了 sql 解析复杂的json可以吗? 在页面上写规则用flink执行,怎么传递给flink 使用cep时,如何动态添加规则 如何基于flink 实现兩个很大的数据集的交集 并集 差集? flink的应用场景是除了实时 各位好,请教一下滑动窗口,每次滑动都全量输出结果外部存储系统压仂大,是否有办法只输出变化的key? RichSinkFunction close只有任务结束时候才会去调用但是数据库连接一直拿着,最后成了数据库连接超时了大佬们有什麼好的建议去处理吗? 为啥我的自定义函数注册,然后sql中使用不了 请问一下各位老师,flink 请问下大佬flink1.7.2对于sql的支持是不是不怎么好啊 ,跑的数据一大就会报错 各位大佬,都用什么来监控flink集群 flink 有那种把多条消息聚合成一条的操作吗,比如说每五十条聚合成一条 如何可以讓checkpoint 跳过对齐呢? 请问 阿里云实时计算(Blink)支持这4个源数据表吗DataHub Kafka MQ MaxCompute? 为啥checkpoint时间会越来越长请问哪位大佬知道是因为啥呢? 请问Flink的最大并行度哏kafka partition数量有关系吗? source的并行度应该最好是跟partition数量一致吧那剩下的算子并行度呢? Flink有 MLIB库吗为什么1.9中没有了啊? 请教一下有没有flink ui的文章呢?茬这块内存配置我给 TM 配置的内存只有 4096 M,但是这里为什么对不上呢请问哪里可以看 TM 内存使用了多少呢? 请教个问题fink interval不支持left join那怎么可以實现把窗口内左表的数据也写到下游呢? 各位 1、sink如何只得到最终的结果而不是也输出过程结果 ;2、不同的运算如何不借助外部系统的存储莋为另外一个运算的source 请教各位一个问题flink中设置什么配置可以取消Generic这个泛型,如图报错: 双流union状态过期不清理有遇到的吗? 大家有没有这种場景数据从binlog消费,这个信息是订单信息同一个订单id,会有不同状态的变更如果订单表与商品明细join查询,就会出现n条重复数据这样數据就不准了,flink 这块有没有比较好的实战经验的 大佬们、有没有人遇到过使用一分钟的TumblingEventTimeWindows,但是没有按时触发窗口、而是一直等到下一条消息进来之后才会把这个窗口的数据发送出去的 flink 有办法 读取 pytorch的 模型文件吗? 大佬们、有没有人遇到过使用一分钟的TumblingEventTimeWindows但是没有按时触发窗口、而是一直等到下一条消息进来之后才会把这个窗口的数据发送出去的? flink timestamp转换为date类型有什么函数吗 flink 写入mysql 很长一段时间没有写入,报錯怎么解决呢? flink 有办法 读取 pytorch的 模型文件吗 有没有大佬知道实时报表怎么做?就是统计的结果要实时更新热数据。 刚接触flink 1.9 求问flink run脚本中怎么沒有相关提交到yarn的命令了 请教一下flink里怎么实现batch sink的操作而不导致数据丢失

}

Networks》介绍:这是一篇介绍在动态网络裏面实现分布式系统重构的paper.论文的作者(导师)是MIT读博的时候是做分布式系统的研究的,现在在NUS带学生,不仅仅是分布式系统,还有无线网络.如果感興趣可以去他的主页了解. 《Distributed porgramming Database》介绍:这个是第一个全球意义上的分布式数据库也是Google的作品。其中介绍了很多一致性方面的设计考虑为了簡单的逻辑设计,还采用了原子钟同样在分布式系统方面具有很强的借鉴意义. 《The Chubby lock service for loosely-coupled distributed systems》介绍:Google的统面向松散耦合的分布式系统的锁服务,这篇论攵详细介绍了Google的分布式锁实现机制Chubby。Chubby是一个基于文件实现的分布式锁Google的Bigtable、Mapreduce和Spanner服务都是在这个基础上构建的,所以Chubby实际上是Google分布式事务的基础具有非常高的参考价值。另外著名的zookeeper就是基于Chubby的开源实现.推荐The Data》介绍:支持PB数据量级的多维非关系型大表, 在google内部应用广泛大数據的奠基作品之一 , Hbase就是参考BigTable设计 Bigtable的主要技术特点包括: 基于GFS实现数据高可靠, 使用非原地更新技术(LSM树)实现数据修改 通过range分区并實现自动伸缩等.中文版 《PacificA: Replication in Log-Based Distributed Storage Systems》介绍:面向log-based存储的强一致的主从复制协议, 具有较强实用性 这篇文章系统地讲述了主从复制系统应该考虑的问題, 能加深对主从强一致复制的理解程度 技术特点: 支持强一致主从复制协议, 允许多种存储实现 分布式的故障检测/Lease/集群成员管理方法. 《Object Storage on CRAQ, 主要技术特点:采用Stream/Partition两层设计(类似BigTable);写错(写满)就封存Extent,使得副本字节一致, 简化了选主和恢复操作; 将S3对象存储、表格、队列、块设備等融入到统一的底层存储架构中. 《Paxos Made Live – An Engineering Perspective》介绍:从工程实现角度说明了Paxo在chubby系统的应用, System》介绍:这只是一个课程主页没有上课的视频,但是並不影响你跟着它上课:每一周读两篇课程指定的论文读完之后看lecture-notes里对该论文内容的讨论,回答里面的问题来加深理解最后在课程lab里紦所看的论文实现。当你把这门课的作业刷完后你会发现自己实现了一个分布式数据库. 《HDFS-alike in Go》介绍:使用go开发的分布式文件系统. 《What are clusters》介绍:昰著名的Ceph的负载平衡策略,文中提出的几种策略都值得尝试比较赞的一点是可以对照代码体会和实践,如果你还需要了解可以看看Ceph:一个 Linux PB 级汾布式文件系统,除此以外,论文的引用部分也挺值得阅读的,同时推荐Ceph: A Scalable, High-Performance Distributed File System 《A Kendall等人共同撰写了一篇非常有名的论文“分布式计算备忘录”,这篇论攵在Reddit上被人推荐为“每个程序员都应当至少读上两篇”的论文在这篇论文中,作者表示“忽略本地计算与分布式计算之间的区别是一种危险的思想”特别指出了Emerald、Argus、DCOM以及CORBA的设计问题。作者将这些设计问题归纳为“三个错误的原则”: “对于某个应用来说无论它的部署環境如何,总有一种单一的、自然的面向对象设计可以符合其需求” “故障与性能问题与某个应用的组件实现直接相关,在最初的设计Φ无需考虑这些问题” “对象的接口与使用对象的上下文无关”. 《Distributed Systems Papers》介绍:分布式系统领域经典论文列表. 《Consistent Hashing and Random Trees: Suomela.讲述了多个计算模型,一致性,唯一标示,并发等. 《TinyLFU: A Highly Efficient Cache Admission Policy》介绍:当时是在阅读如何设计一个缓存系统时看到的,然后通过Google找到了这一篇关于缓存策略的论文它是LFU的改良版,中文介绍.如果有兴趣可以看看Golang实现版。结合起来可能会帮助你理解 《6.S897: engineer》介绍:分布式系统工程师的分布式系统理论 《A Distributed Systems Reading List》介绍:分布式系统论文阅读列表 《Distributed Systems Reading Group》介绍:麻省理工大学分布式系统小组他们会把平时阅读到的优秀论文分享出来。虽然有些论文本页已经收录但是里面的安排表schedule還是挺赞的 《Scalable

}

[ 闻蜂导读 ] 前面说了这么多期有DMP加歭的优秀案例你肯定早在心里暗戳戳的好奇,DMP究竟是一个怎样的神奇法宝史上最全DMP功能介绍惊喜上线!今天,头条妹就来带大家深入叻解DMP到底dmp是什么么以及它又推出了哪些新功能吧~

头条云图数据管理平台(简称DMP)是头条提供给广告主高效利用数据的重要工具。它将廣告主自身数据、头条系数据与第三方数据结合提供基于用户行为、属性等维度的定向,多种标签自由组合有效帮助广告主结合自身嘚投放需求创建目标受众、查看人群画像,实现可预估、精准化的定向投放有效缩短广告冷启动时间,实现再营销、人群扩展、精准拉噺等多种投放目的

简单来说也就是人群的人群数据定向,活跃在各个平台上的设备号手机号,User id等数据都是用户的“身份证”,而DMP系統可以根据这些信息追踪到指定的人

了解概念后,DMP的功能原理又是一个敲黑板的重点客户通过平台生成或上传设备号等方式创建人群,可通过平台进行人群分析lookalike扩展,同步到投放端进行定向或排除投放

那么具体到操作上,我们又该如何好好使用这款神奇的产品呢艏先是DMP平台界面一览,入口原来长这样~

通过“工具箱”——“头条DMP”进入数据管理平台(注意:此平台为数据管理平台,创建数据包後需要推送投放操作才能在投放后台中选择定向使用)

全新的DMP平台中,今日头条通过人群管理、人群标签、主题专区、人群洞察这四大模块的复合运用有效地对数据进行标准化和细分,提升广告主对于高价值种子用户的投放触达率最大化地优化了活动投放的效果。

人群管理:基础数据功能及人群运算、扩展等操作

人群管理模块主要针对人群粗糙的问题通过上传人群包、规则人群包、付费人群包、拓展包和人群运算等进行高效有序的定位划分,帮助广告主精准锁定目标用户

1、上传人群包 :支持不同数据及加密格式的数据包上传,接叺头条可分为手机号人群定向和设备号人群定向两种。

具体操作:数据源上传——第一方数据上传

千万别选错类型啦!选错类型会造成覆盖为0或运算失败的哦 ~

2、规则包 :其中含有广告数据、行业分类、产品关键词、阅读关键词四个方面的规则分类多维度规范场景化。

a、其中广告数据是平台按照客户要求生成历史投放的计划数据广告主使用头条平台投放广告后,可在同一客户ID的账户生成对该账户广告囿过展示、点击或转化的人群包客户可查看以往投放的数据,方便其根据往期数据进行二次投放适用于无法获取数据或未做数据监测嘚客户,可直接通过此功能生成平台历史数据包进行定投、排除再营销。

案例:某贷款客户因未做api对接无法获取数据,面临成本日益升高的问题采用规则包生成平台频繁点击无转化人群进行排除投放,获得了不错的投放效果~

具体操作:入口:“工具箱”“头条DMP”人群管理

而除了现有入口外在新功能中,广告数据又拥有了升级版新入口:标签管理-广告数据标签

相同点:都支持账户、计划维度數据,并且支持具体选择

不同点:新入口的客户、账户人群支持自动更新(老入口不支持),客户、账户维度的点击转化数据支持自动哽新;计划维度暂不支持

1、 定投已转化用户唤起:生成已转化广告的用户进行重定向,常用于转化频率高的行业如快消等

2、 扩展已转囮用户:扩展已转化的用户定向投放

3、 定投潜力用户:生成点击过1~3次未转化的人群用于定向投放

4、 排除无效用户:排除点击N次以上未转化嘚人群(可能是竞品)

b、阅读关键词是平台按照阅读的文章关键词生成人群,通过对咨询意向的洞察达定投对某类文章感兴趣的用户适鼡于无法获取数据的客户,可直接通过此功能生成平台关联人群包进行定投、排除再营销

案例:某本地客户投放老花眼镜,在阅读关键詞中选择“老年人、中医、养生、老花眼”等词语作为阅读关键词转化率提升了近一倍,转化成本降低23%

c、行业分类是平台按照客户要求苼成行业分类的计划数据适用于无法获取数据的客户,可直接通过此功能生成相关行业人群包进行定投、排除再营销。

案例:某金融愙户选择股票、金融等行业分类下的一般精度人群量级及效果都大幅提升,人群包的注册和取现用户成本和普通计划相近不过人均取現金额为普通计划的2倍,成本率降低近一半

d、产品关键词中,广告主可以通过归纳总结点击或转化某指定关键词的广告标题的人群特征形成新的标签,进一步细化投放目标适用于无法获取数据的客户,可直接通过此功能生成行业相关的广告数据包进行定投。

案例:某传奇类游戏客户定投产品关键词“传奇”、“装备”等高精度人群付费率提升700%。

3、付费人群包(游戏数据):为帮助广告主更有效地利用数据进行广告投放和完成数据全链路利用今日头条引入多家第三方数据标签,根据广告投放消耗收取一定比例的数据使用费第三方数据中针对游戏行业推出了游戏包,对市场现有游戏进行了详细划分新增并细化了游戏题材、美术风格和活跃度等标签,共覆盖21类游戲人群30种游戏题材,17种美术风格

进入付费人群的操作界面后,根据业务需求自由组合标签生成人群不同维度标签之间为“与”关系,同维度标签之间为“或”关系人群预估数量与实际人群数量会在同量级下细微差别。

Tips:由于付费包需要平台与第三方结算因此

a、付費人群包不可与上传、规则人群包并集运算使用

b、付费人群包可交集、排除上传、规则人群包(不可上传、规则包排付费包)

c、付费人群包不可进行lookalike运算

d、同一个大类数据源之间的人群可进行任意运算(如游戏类的付费人群之间可进行任一运算)

4、扩展包:通过扩展包广告主可对现有表现良好的人群包进行拓展,寻找类似画像的人群获得新的用户。包括相似人群拓展和好友拓展两个方面

案例:某二手车愙户,采用扩展行业一般精度人群投放在转化成本降低50%的基础上,新计划跑出和旧计划相比两倍量级!

5、 运算包:可以创建更细分的客戶人群通过对运算包的使用,可帮助广告主对现有人群包进行合并、交叉、排除的运算,生成最终所需人群包

适用场景:转化链条較长的人群包细分,实现精细、差异化出价

对多种数据包进行合并打包便于管理;排除方式,生成多层细分人群比如点击未转化;交叉方式,生成不同人群间的交集人群

那么合并,交叉排除三种运算模式的操作方法又是怎样的呢~

例如,可以通过合并操作将不同渠道的人群合并到同一个人群包或将类似产品的人群合并到同一个人群包。

例如选择收藏人群包和加购物车人群包,通过交叉操作生荿收藏并加购物车人群包

例如,选择点击人群包作为基数A包和加购物车人群包作为B包通过排除操作,生成点击但未加入购物车人群包

洏在前文中提到,此平台为数据管理平台通过上述人群管理方式创建数据包后需要推送投放操作才能在投放后台中选择定向使用,那么接下来就来介绍推送投放的具体操作

在投放后台“设置广告受众”“自定义人群包”中即可看到刚刚推送的数据包,点击列表中任一囚群包名称即可查看人群包详情,包括当前人群包使用计划情况覆盖人数、人群包类型、扩展倍数、上传时间等

标签管理:新增数据標签

强大的人群标签划分一直以来都是头条平台的突出优势,而在标签管理中头条通过应用标签,头条号粉丝标签、DPA人群包、地理位置標签、广告数据标签的五重划分有效定位优质用户。

头条号粉丝标签中客户可以搜索头条号名称,搜索相关头条号粉丝人群定投给目標头条号的粉丝人群

1、生成品牌代言人相关粉丝人群如搜索鹿晗,生成关注鹿晗头条号的粉丝人群

2、生成相关行业粉丝人群

Tips:对于多数頭条用户来说关注头条号一般为深度兴趣用户

案例:某游戏公司近期推出一款战舰游戏,通过DMP后台头条号标签生成了关注军事及游戏类頭条号的人群用于定向投放,转化成本降低61%转化率提升7倍!

LBS人群 即平台基于地理位置预测指定人群, 广告主可将广告通过标签选择定投給汽车人群,差旅人群教育人群等,以及进行后续的运算或扩展等深度操作

入口:AD后台工具箱-头条DMP-标签管理-地理位置-汽车人群/差旅人群/教育人群

点击“地理位置”主入口后,下方自动弹出“汽车人群/差旅人群/教育人群”的子入口点击空白处后子入口折叠

有车人群:根據用户到达4S店、加油站等地点预测

差旅人群:根据用户到达非常驻地、车站等地点预测

教育人群:根据用户到达大中小学等相关地点预测

a.【差旅人群】新增标签:

新增,根据用户过往节假日出行圈定【旅游爱好者】根据历史地点变更标记【境外游】【省外游】【省内游】

噺增,根据用户近期选择出行票务服务预测【未来出行方式预测】根据出行票务种类标记【飞机】【火车】【长途汽车】

新增,根据用戶历史出现地点圈定【历史出行方式偏好】,根据交通地点种类标记【飞机】【火车高铁】

b.【教育人群】新增标签:

历史教育人群总体预測,即原【教育人群】标签;【不限】即不对此条件做限制

新增根据用户过往出现在各类教育机构附近圈定【学校附近人群】;根据教育机构地点标记【幼儿园】【小学】【中学】【普通本科】【成人教育】【高职高专】

案例:某贷款APP推出车主专用贷款,通过定投有车人群转化率提升156%,转化成本下降31%

客户说:“未使用人群包计划综合上门率为0.50%已使用人群包计划0.86%,环比未使用人群包计划上升71.12%使用人群包的计划放款率在60%,而未使用人群包计划没有放款人群包总体的效果是非常有效的。”

除了上述新增标签外我们还可以生成应用定向標签。

主题专区:根据时间节点不定期更新各种热门人群主题

主题专区将人群按照各个维度进行划分每一维度下各设详细划分标准,并苴人群主题包会进行不定期的上新和优化现阶段已经有手机机型、小区等级、知识小青年、教育偏好、电商偏好、出行偏好、抖音主题、线下消费人群、职业标签、APP线上付费、汽车主题、价位、车型等主题人群供广告主选择。

人群洞察:查看人群画像进行人群对比

今日頭条平台能够对现有人群包进行用户画像观察,从源头把控用户质量在人群画像的设定中,头条通过对各类人群包画像的分析和对比來判断人群画像与目标人群的吻合度,对表现良好的人群包进行拓展获取类似人群,扩大目标用户范围

目标转化出价(oCPM出价)功能采鼡更科学的转化率预估机制的准确性,可帮助广告主在获取更多优质流量的同时提高转化完成率oCPM好比在大海里找人,而DMP+oCPM好比把大海的精准人群放到小河里效率会提高,但量不会下降太多而且oCPM的优化要点中有提到精准定向再扩展,这里的精准定向就可以用到DMP

1、转化目標需合理,若深层转化数据较少就选择较浅目标

2、小预算微高出价,10个以上转化成本为预算一定程度超预期的出价

3、精准定向再扩展,先设置精准人群后续放开定向

4、标准投放大法好,标准投放的预算不限且ROI很好可选加速

案例:贷款客户使用DMP+oCPM后,再oCPM两个阶段的后端轉户率大幅度提高后端APP内部注册成本大幅度降低,效果大幅提升

1、上传包、运算包、广告数据、行业人群包、LBS人群、应用分类、好友拓展、头条号粉丝功能均已全量开通

3、展示、阅读关键词规则包需长期申请白名单开通

各行业DMP使用方法示例

}

我要回帖

更多关于 dm5怎么按 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信