Facebook广告投放 v.s google 推广付费广告推广的区别和技巧

五分钟就上手:超详尽Facebook广告实战教学
今天要跟大家介绍付费营销,网络付费营销目前最常用的Facebook、Google 广告,到底要怎么以精准的成本达到最高的效益呢?这次为大家带来脸书广告的实战教学,让你不用花大钱上课,五分钟就上手 Facebook推广,希望能让新手初学者能少花一点冤枉钱。
  今天要跟大家介绍付费营销(Outbound Marketing, Paid Traffic),网络付费营销目前最常用的 Facebook、Google 广告,到底要怎么以精准的成本达到最高的效益呢?这次为大家带来脸书广告的实战教学,让你不用花大钱上课,五分钟就上手 Facebook推广,希望能让新手初学者能少花一点冤枉钱。
  一、 广告型态介绍
  1. Facebook 广告出现位置:侧栏广告(Sidebar)、动态时报(Timeline)广告
  侧栏广告(Sidebar)
  动态时报(Timeline)广告
  *如要指定广告位置,只有进阶广告工具 Power Editor 可达到此效果
  2. Facebook 广告计费模式主要分成五种
  CPC 广告(Cost Per Click):
  根据 广告受众(Audience)对每次广告点击(Clicks)的计费方式。
  特性:最常被采用的广告形式,因为可以较有效控制成本。
  *注意 Facebook 的 clicks 计算,包含点击连结、点赞、留言、分享。
  CPM 广告(Cost Per Impressions):
  每千次曝光(Impressions)的计价方式。
  特性:曝光速度快,适合短时间需要大量曝光的人,广告花费较多。
  FCPM 广告(Fixed Cost Per Impressions):
  每千次曝光(Impressions)的计价方式,限定要在几天内花完一定额度的广告费用。
  特性:曝光速度极快,Facebook 会想尽办法在你限定时间内花完你的预算。
  *进阶广告工具 Power Editor 限定功能。
  推广(Promote):
  计价方式类似 FCPM ,每千次曝光(Impressions)的计价方式
  特性:类似 FCPM 懒人操作法,广告只会出现在特定广告受众(粉丝、粉丝的朋友)以及位(使用者的手机、桌电动态时报)。
  *Po 文右下角限定功能
  动态赞助(sponsored story):
  计价方式不限,可采用 CPC、CPM、FCPM
  特性:社交性广告,“朋友说赞”
  二、下广告前,你务必思考的事
  每个广告如果未经思考想下就下,想试就试,最终往往只像往大海撒钱,伤财又没得到好处。
  请务必想好你的 V&S&T,预见(Vision)& 策略(Strategy)& 战略(Tactics)。
  当理解了自己的预见、策略,才会知道该如何去执行广告战略。像是广告文案该用甚么口吻对谁喊话、下广告时应该选择那些受众,抵达页面(Landing page)该如何设计等等。
  三、简易操作流程介绍
  进入页面广告管理员 & 刊登广告
  1. 选择广告型态
  你可以针对粉丝页(fanpage)、单一则 po 文(post)下广告,或是可以自订一则广告。
  2. 选择广告受众
  可以选择地区、年龄、性别、兴趣,同时也可以指定要对粉丝、粉丝朋友或是非粉丝下广告。右侧会有预估的广告受众,建议广告受众不要太少,会影响曝光速度与成本。
  3. 广告预算设定
  设定营销活动(Campaign)的总预算、广告投放时间、以及采用的计价模式。在简易模式中,仅能选择CPC 或是CPM 计价投放广告。
  如需要更细部的设定以及效果,建议使用进阶广告工具Power Editor。
  四. 绩效追踪、广告优化
  这是广告最重要的关键,但也是许多人忽略的部分。做网络营销,一定要能计算每次广告营销能为自己带来多少价值,没有数据永远只是口说无凭,你也无法对广告进行测试、优化。
  1. 广告基本绩效指标
  点击率(CTR)、广告平均价格、总曝光率(Impression),前两者不用说,点击率当然是越高越好,平均单价越低越好。这边想提醒大家的是曝光率。
  曝光率分为三种,自然生成(organic)、病毒散播(social impression, viral)、付费曝光(paid impression)。
  自然生成,顾名思义就是粉丝自己看到这则 po 文,付费曝光则是广告达到的曝光效果,病毒散播是指因为广告受众对该动态有行动,因此他的朋友们看到了这则 po 文。
  在 Facebook 这个社交平台上,“病毒散播曝光” 是非常重要的指标,因为一来它是免费的,二来当病毒式散播越强,代表这则 po 文越受欢迎,Facebook 就会多投放这档广告,平均广告成本也会较低。而要有效达到病毒式散播,除了靠天时地利外,第二部分讲的广告战略就非常重要了!
  2. 进阶广告绩效追踪
  如同第一部分提到的,Facebook 的 clicks 包含点击各连结、点赞、留言、分享等,所以FB 报表数字会与实际真的有进入网站的流量有落差。
  此时可善用 Google 网站工具,像是Google 提供的URL Builder 下追踪 ,进而从Google 分析(GA, Google Analytics)or woopra 等网站流量监测平台,监测每个导进来的流量状况。
  这样才能进一步研究该档广告受众的行为、以及实际的广告效果(ex. 浏览哪些页面、跳出率、停留时间、购买转换率等)。建议可以同时搭配 goo.gl 、 bitly 缩短网址,计算实际有点连结的人次。
  看完以上四个步骤后,你就可以开始大胆尝试Facebook 广告啦!
  Facebook 广告其实常常被广告主抱怨效果不好,除了 FB 本身社交与广告机制的冲突外,脸书广告往往刺激到的都是人们的外在动机,引发的是慾望而非需求。
  但我们仍然不可忽视 Facebook 能带来的 口碑价值(Word of Mouth),广告主最大的挑战是如何将广告融洽放入社群、广告受众面前。广告不能再只是普通文案,而是要能提供贴近听众心灵需求的“有价资讯”,才有可能让使用者愿意分享散播。
(图片来源:Flickr@cleveredfool, CC Licensed)
&后参与评论
微信公众号:梅花网Facebook 上有哪些广告形式? - 知乎1412被浏览68540分享邀请回答/academy/guides/facebook-ads-beginner/facebook-ads-types/)看到非常详细的 Facebook 广告类型划分。众多广告分类中,Facebook 最推崇按投放目的划分。它分为以下 12 种形式:用于提高网站点击量的广告用于提高网站转化量的广告用于提高主页贴文互动量的广告用于提高主页点赞数的广告用于提高移动应用安装量的广告用于提供优惠券领取的广告用于提升本地市场知名度的广告用于活动响应的广告用于产品目录推广的广告用于提升品牌知名度的广告用于开发潜在客户的广告用于提升视频观看量的广告Facebook 广告服务如此丰富,很难指望广告主能记住所有类型。为了照顾广告主,Facebook 没有过多宣传广告形态,更多情况下根据实际使用场景介绍广告产品。广告主在 Facebook 创建广告时,系统会引导广告主先确定广告投放目的。广告主确定投放目的后,Facebook 会根据投放目的选出最合适的广告类型,然后引导广告主进行后续操作。Facebook 创新性的信息流广告 2011年 推出,2012 年 1 月上线。4 年间,以信息流广告为主的广告业务为Facebook 带来近 400 亿美元收入。广告收入每年以超过 50% 的增长率上涨。今年第二季度,Facebook 营收 64.4 亿美元,广告收入达到 62.4 亿美元,移动广告收入在广告收入中的占比达到 87%。Facebook 移动广告收入中,以视频广告、Instagram 广告的贡献最为显著。因此,介绍 Facebook 广告,Instagram 广告是无法忽略的重要形式。它对 Facebook 意义重大。和 Facebook 相比,Instagram 的广告形式很简单,分为三种:图片广告。内容为单张图片的广告视频广告。长度为 60秒 的视频广告轮播广告。由多张图构成的轮播组图广告,广告主可以一次展示更多商品信息(Instagram 广告类型。左起:图片广告、视频广告、轮播广告)通过这些广告形式,Instagram 可以让广告主实现点击跳转至目标网页、下载&安装移动 APP、观看商品宣传视频等 8 种广告效果。Instagram 的广告收费比 Facebook 更高,效果也更出色。据 Salesforce 统计,Instagram 的广告点击率大约是 Facebook 两倍。Instagram 以图片为主体内容的属性也方便时尚、汽车等注重视觉效果的广告主投放广告。Facebook 目前没对 Instagram 广告数据公开太多,但还是能看出它的巨大潜力,尤其是视频广告。今年二季度财报电话会议上,扎克伯格说未来会对视频服务进行投资。一个多月后,Instagram 推出 “Story” 视频功能,在用户时间线顶部展示。Story 未来无疑也将会成为 Instagram 重要的广告收入来源。根据市场分析机构 eMarketer 的预测,2016 年 Instagram 广告收入预计为 14 亿美元;2017 年,它的广告收入可能会超过 Google 和 Twitter 的移动广告收入。17321 条评论分享收藏感谢收起358 条评论分享收藏感谢收起查看更多回答3 个回答被折叠()内容字号:
段落设置:
字体设置:
Jeff Dean领衔谷歌大脑在线答疑16大问题,看好3大方向
本文首发于微信公众号:新智元。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。
  新智元编译来源:编译:闻菲,熊笑
  【新智元导读】谷歌大脑团队现在正在Reddit上进行他们第二次AMA在线答疑,目前网友留言已经高达490多条。新智元第一时间为你编译整理:谷歌大脑当前的工作重心在哪里,他们认为深度学习要进一步往前需要克服哪些难题,成员看好什么研究方向,同时,谷歌大脑如何运作,成员都有哪些背景,怎样才能加入谷歌大脑。更有Hinton最新研究以及TPU进展爆料,赶紧来看——
&&& TensorFlow遭遇对手,不过谷歌大脑的人欢迎各种idea
  说实话,你们认为Pytorch如何?有用过吗?担不担心Pytorch带来的竞争?还是说你们认为Pytorch是TensorFlow的补充?
  Alexandre Passos:我认为 pytorch 很棒!UI 很简洁,文档做的也不错。编程模型里有不少很好的idea。有更多的人在 ML
libraries 上工作是件好事,这样我们就能看到更多的idea,并充分利用它们。
  Rajatmonga:ML 社群的一个优点就是互相学习。在开发 TensorFlow 的过程中,我们从以往 DistBelief
的经验中学习,也从其他框架,比如 Theano 中学习。我们也会继续从 Pytorch 和 DyNet 这样的新框架中汲取养分。我们把 TensorFlow
看作是推动 ML 研究边界的工具,它把 ML 带给了每个人。社群中的研究和 idea 在不断进化,TensorFlow 也在不断进化。
  谷歌大脑在关注哪些研究重难点?训练、数据、计算力领域面临的下一个最大的障碍是什么?
  Vincent
Vanhoucke:使深度网络稳定地适应来自弱监督数据的在线更新仍然是个大问题。解决这个问题,将使真正的终身学习成为可能,并使得许多应用程序开放。另一个巨大的障碍是,像GAN
这样领域内最激动人心的发展还没有到达“批量归一化”的时刻:在那一刻,所有一切忽然都变得自动地“想要训练”,而不是要一次一个超参数地和模型较劲。它们仍然不够成熟,还没有从有趣的研究方向转变成我们可以依赖的技术;
现在,不进行大量的精确微调,就无法可预测地训练这些模型,因此很难将它们纳入到更精细的系统中。
Dean:现在,我们倾向于构建机器学习系统来完成一个或少量的特定任务(有时这些任务是相当困难的,例如把&&&一种语言翻译成另一种语言)。我认为我们真的需要设计可以解决数千或数百万个任务的机器学习系统,并且可以借鉴解决这些任务的经验来学习自动地解决新任务,同时,模型的不同部分会根据不同任务被
sparsely activated。要搞清如何做到这一点,还有很多挑战。今年早些时候,在斯坦福大学举行的 Scaled ML
大会上,我发表了关于这个问题的演讲,从幻灯片的第80 页开始(有些背景知识从第 62 页开始)。
  人们常说要开放数据集/代码,但很少提计算力。谷歌在机器学习和AI方面投入巨大,训练AlphaGo用了将近300个GPU,还只是单个模型,这样一项研究要用到好几千个GPU了。谷歌的人在研究过程中是否会考虑计算力资源这个问题,还是把这看作是在提供知识——没有谷歌这么深的口袋,进行这些研究是不可能的。你们认为这是否会让其他负担不起相同资源的实验室/研究组产生不合理的期望,对整个圈子产生其他潜在的积极/消极影响?
  Vincent
Vanhoucke:许多伟大的研发都是以贵得吓人的研究开始的,而一旦人们知道什么是可行的并开始优化它们时,它们就成为了人人都能达到的目标。谷歌的第一个深度网络(用于语音识别)训练时间需要几个月,而且运行速度也非常慢。然后,我们发现了提升速度、改进(和开源)我们深度学习基础设施的技巧,现在现场的所有人都在使用它们。SmartReply也一度贵得吓人。我还能举出不少这样的例子。对于我们来说,重要的是探索可能的范围,因为最终目标不是在基准测试中获胜,而是要使科学进步。
  George
Dahl:我们都想要更多的资源,如今资金充足的学术实验室实际上可以访问相当多的计算资源,并能够进行大量有趣的研究。我完全同意,如果学者(和所有开展研究的人)都可以获得更多的计算资源,那一定是件好事。这就是我们为什么要推出TensorFlow
研究云。它将为机器学习研究界提供共计180 petaflop 的raw computer power,而且是免费的。
  总是会有一些实验室拥有比其他实验室更多的资源,一般来说,只要结果公布,整个社群就能从有更多资源进行大规模实验的实验室研究人员的所作所为中获益。这是我们如此致力于发布和传播我们研究的原因之一。
  小公司或者刚刚开始采用机器学习的新领域,要收集带标签的数据集真的很难,而且效率低下。你们对无监督学习或半监督学习的未来有什么看法?
5年后机器学习的主要研究重点还是深度学习吗?
  Samy Bengio:确实,深度学习最大的成功经常与大量可用的带标签的数据联系在一起。但深度学习并非固有需要这么多的数据。最近关于few-shot
learning的论文,比如《Optimization As A Model For Few-Shot Learning》和《Prototypical
Networks for Few-shot
Learning》,显示了可以显著减少完成每个任务所需的带标签数据的数量。没有人知道5年后机器学习会怎样,但很可能会涉及到通过深度非线性模型实现一些形式的梯度下降。
  很多人都说,深度学习只是不断试错。把数据喂给神经网络,调整架构,尽可能做得越深越好。你们怎么看这些说法?构建具体问题的架构背后有什么理论吗?
Bengio:像以前的许多领域一样,深度学习在拥有坚实的理论基础前就开始产生巨大的影响。但是,还是有很多很好的理论论文发表出来,包括谷歌大脑的研究,比如《Sharp
Minima Can Generalize For Deep Nets》、《Understanding deep learning requires
rethinking generalization》、《Investigating the learning dynamics of deep neural
networks using random matrix
theory》,主要是为了更好地理解“为什么深度学习会有效”,特别是要更好地理解,如何为特定任务设计一个模型。同时,像“学会学习”这样的方法已经从一定程度上减轻了对这些问题的担忧。
  Hinton,你的Capsules研究进展怎么样了?
  Hinton,你的capsules进展怎么样了?
  Nick Frosst:Hinton现在很忙,但今早我们准备了这个答案:Capsules 进展顺利!
  我们多伦多办公室的一组五人(Sara Sabour,Nicholas Frosst,Geoffrey Hinton,Eric Langois 和
Gens)正在取得稳步进展!Capsules是一组神经元,其活动向量表示特定类型的实体(例如对象或对象部分)的实例化参数。我们最近有一篇被作为spotlight
的 nips 论文,讨论了capsules 之间的dynamic
routing,作为衡量较低级别功能之间协议的一种方式。该架构在MNIST上实现了最先进的性能,并且在识别高度重叠的数字时明显比卷积网络更好。我们还在研究新的routing
procedure,并在NORB 数据集上取得了良好结果,以及一个新的capsule
架构,可以保持与输入空间中给定组的等价性。我们希望尽快发布这些结果!
  其他被看好的方向:高效大规模优化、第三人称视角模仿学习、在运行代码时推理代码
  你们都对什么项目感兴趣,为什么?
  Nicolas_LeRoux:我个人对高效大规模优化感兴趣。现在,我们依靠标记的数据集来训练模型,但是我们已经看到了这种方法的局限性。将来,我们会更多地使用更大的未标记或弱标记的训练集,每个数据点都包含较少的信息。在这种情况下,如何最大限度地利用每个样本,不要一训练模型就花上好几个月乃至几年的时间就非常重要了。我想了解如何以在线方式从这些数据点收集和保留信息,从而尽可能快速和有效地训练模型。这将使我们能够处理更具挑战性的问题,也可能对训练这些模型所需的能源产生巨大影响。
  随机梯度方法便是一个这样的例子。虽然是选择的方法,但在仅仅使用一次之后便立即舍弃渐变似乎很浪费。其他方法,例如动量(在线)或SAG/SAGA(有限数据集),通过保持这些梯度的记忆来加快学习。但是,我们仍然不知道如何在一般的在线非凸情况中最好地使用这些用过的样本。
  大家都在说机器学习/AI/深度学习的成功,能不能谈几个失败的例子,或者说你们在工作中遇到的困难?谷歌大脑团队对无监督学习方法怎么看?你觉得未来几年它会成为主流概念吗?
  Vincent Vanhoucke:失败的例子:我们中的一些人试图与纽约客漫画编辑Bob Mankoff
合作,在纽约客漫画上训练一个神经字幕发生器(今年刚刚看到NIPS论文)。项目失败了。我们没有符合DL
标准的足够数据,尽管我们可以预先对其他类型的漫画进行视觉表征。我希望有一天能做到这件事,但方法可能是老式的。
  至于无监督学习,我认为人们最终会明白,自动编码是一个坏主意,而能工作的无监督的学习(例如语言模型)和不能工作的无监督的学习之间的区别通常是预测未来(比如下一个单词、下一帧)而不是现在(自动编码)。我很高兴地看到很多人已经开始对我们去年开源的push
dataset 的“预测未来”工作进行了基准测试,这让人很惊喜。
  一般来说。以NLP为例:该空间中最基本的自动编码形式,像LSA 和LDA 这样的线性瓶颈表征,已经完全被Word2Vec
等替代,它们仍然是线性的,但使用上下文作为监控信号。在声学建模中,我们花费了大量的时间来衡量自动编码音频表征对模型信号的好处。而所有这些都被LSTM
毁了,LSTM再次使用因果预测作为监控信号。连Yann LeCun
都修改了他的“樱桃vs蛋糕”的说法,不再是关于“无监督学习”,而是关于“预测学习”。这本质上是一回事。自动编码器不好,未来自我预测好。
  对于深度强化学习和/或机器人技术,你们认为最有希望的方向是什么?
  Vincent
Vanhoucke(vincentvanhoucke):在过去十年中,机器人技术的大部分发展是基于知觉根本不会起作用这个前提,因此在该领域的大量研究集中在非常受控环境中的机器人操作。现在,有了计算机视觉的“超能力”,我们有机会返回去,重建一个围绕知觉和丰富反馈的机器人堆栈,这些反馈很大程度都来自一个未知的环境。深度强化学习是将感知置于控制反馈循环中心最有前景的方法之一,尽管离应用还有很大的距离。我们需要弄清楚如何更容易地获得奖励,更可靠的训练和更高的样本利用率。我在AAAI演讲中提到了一些,现在我很感兴趣的一个问题是第三人称视角模仿学习(imitation
learning from third-party vision),我认为这是解决任务操作(task
instrumentation)和提高样本利用率的一种大有希望的方法。我们将在即将举行的第一届机器人学习大会(1st Conference on Robot
Learning)上讨论这个问题:
  我们越来越多地看到神经网络在使用非常通用的数据,例如像素数据,并且能够复制人类编码的复杂规则。例如,一群大学生最近能够基于用户输入做出老式的 2D
超级玛丽游戏——只是通过看人类玩游戏来学习,而不是在编码上训练。然后,他们的网络编写了游戏代码,并取得了很好的成绩。什么时候我们可以开始训练神经网络,比如
Python 代码和相应的输出,然后推理出底层代码和规则?
Tarlow(dtarlow):从代码执行中推理代码,这绝对是一个很酷的问题!相关研究已经很长时间了。传统上,这些方法里并没有很多机器学习的成分,但20
年前,人们已经开始考虑这个问题了。最近这方面有了相当多的工作,机器学习方法进入了研究者的视野,我认为这真的很令人兴奋。
  通过具体执行追溯代码仍然是一个很难的“海底捞针”的搜索问题,值得思考机器学习能做出什么贡献。最近至少有两个有趣的方向:
  源代码执行的differentiable
proxy。也就是说,我们能找到一个可微函数来(很可能是近似地)解释源代码产生的行为吗?这可以产生梯度来引导对行为条件程序的搜索。可以如论文
Learningto Execute(Wojciech Zaremba,Ilya
Sutskever,2014)那样在不编码解释器架构的情况下完成,或通过编码解释器的架构实现,如论文Differentiable Forth(Matko
Bošnjak et al.,2017)或TerpreT (Alexander L.Gaunt et
al.,2016)。值得注意的是,这些模型只能在简单的语言上进行测试,或者容易受到局部最优化的影响,所以我们还没有成功地将它们扩展到小问题之外。开发出
python 的全部能力是一个很好的目标,但是现在我们还有几个很大的挑战。
  学习从执行行为到代码的映射。最近的一些论文,如A Machine Learning Framework for Programming by
Example (Aditya Krishna Menon et al.), DeepCoder(Matej Baloget al., 2016),
RobustFill (Jacob
Devlin,2017)。此处的瓶颈是去哪里获得“代码——行为”对的良好大规模数据。我们可以通过手动构建的基准测试或随机产生的问题取得一些进展,但仍需要更多的高质量数据推动这一方向的研究。
  所以,总体来说,这绝对是没有解决的问题,但它是一个巨大的挑战,也是值得积极研究的领域。
  所以,谷歌大脑究竟是怎么运作的?怎样才能加入谷歌大脑?
  你们的日常工作情况是怎样的?你们在选人时有什么标准?
Dean:我领导大脑团队。每一天,我都要花时间阅读和撰写电子邮件,阅读、评论、有时会编写技术文档,与我们的团队或谷歌其他地方的各种人员进行1:1
或小组会议。Review 代码,编写代码,思考影响我们团队的技术或组织问题。有时会进行内部或外部的讲话。
  Alexandre Passos:我是一个 tensorflow
开发人员。我每天的工作基本是开始于阅读和分类电子邮件(谷歌里邮件可真不少)。我会看看关于 stackoverflow
的问题,挑些有趣的来回答。我每天花几个小时编写代码、调试,但不像我更年轻一些时预想的那么多。我也在合作进行一个研究项目,论文不久以后会出来。幸运的是,这些天我不用参加太多的会。
  Nicolas
LeRoux:我是蒙特利尔的研究科学家。我的时间花在以下三件事上:与本地学术实验室建立联系——这是我们的任务之一,进行自己的研究,指导更多的初级研究人员——包括实习生或大脑resident。我试图每天至少抽出一个小时阅读最新的论文、研究博客或浏览arXiv。我也尝试花一些时间,不去任何会议,不回复电子邮件,只是想想我目前的项目。其余的时间我通常用于与其他研究人员进行互动,讨论电子邮件或视频会议的想法,以及参加会议(山景中的所有演讲都会流传到各处,供我们享用)。最后还有社区活动(我今年是NIPS的地区主席,对各种期刊和会议进行了
review)。
  我们主要寻找具有卓越履历的候选人,但我们也希望确保他们能够与团队其他成员进行有效的互动,因为团队合作对于解决最为深远的问题至关重要。
Frosst:我是多伦多办公室的R-SWE。我们在这里是一个很小的团队,都坐在一起,所以我很多时间都在和小组的其他成员谈论新的想法。作为一个r-swe,我可以做自己的研究工作,以及实施其他研究人员的想法。我几乎完全在
TensorFlow 中工作。我每周和我的主管有两次会议,每周有一次小组会议。
  Samy Bengio:作为研究带头人(research
lead),我的大部分时间都是致力于把研究小组往重要的研究问题上引,我会与研究科学家开会,讨论他们的想法,与文献有什么关联,了解他们目前的进展和局限,制定下一个计划步骤……我还组织了一些研究活动,比如阅读小组和定期会谈,内部的和外部的都有。最近,我作为NIPS的程序主席一直在忙。当考虑让谁加入我们的团队时,我在寻找具有开放研究心态的优秀人物,有潜力大大影响我们目前对机器学习理解的人。
  Pi-Chuan Chang:我是谷歌大脑基因组学团队([Google]Brain
Genomics)的软件工程师(SWE)。我花时间了解基因组学问题,并将其纳入深度学习范围,确保我们编写高质量的代码,供基因组学界的其他人使用。当我加入这个团队时,我认为这对我来说很适合,因为我可以利用我的机器学习和工程技能,并学习一个新的领域(基因组学)。作为团队中的新人,我认为有一些现有的技能可以满足团队的需求,同时也带来新的技能/观点是非常重要的。
  George
Dahl:我是大脑团队的研究员。大脑团队工作是我能想象的最好的工作,主要是因为我能够做我想要做的工作,并且与超凡的同事共事。我花大部分时间来指导初级研究人员,和他们在具体的研究项目上进行合作。我手头随时都可能有大约5个正在进行的项目。我试图确保这些项目中至少有一个是我自己经历大量实验或编写大量代码的程序,而对于其他人,我可能会处于更偏向监督的角色(审查代码,规划和优先排序任务)。这在实践中意味着我通常会在一天内进行几次研究会议,花一些时间在邮件上,花一些时间做代码审查,再花大量时间与同事进行头脑风暴。我也花时间提供有关TensorFlow的反馈意见,出去演讲,看论文和进行面试。在评估潜在的新研究团队成员时,我们通常会寻找这样的人,他们热衷于机器学习研究,与他人能良好合作,拥有良好的编程和数学技能,并拥有一些机器学习研究经验。
  谷歌大脑里研究科学家和工程师之间怎么区分,责任有什么不同?很多公司里都有这样的情况,那就是科学家对于学习写明晰的产品代码并不感兴趣,而工程师则不关心研究/实验。
Bengio:谷歌大脑的研究科学家能自由设置自己的研究计划(公司也期望如此)。他们也可以自己组队,联合起来解决更重要的项目。此外,我们还在团队中增加了一个(不断增长)的研究软件工程师团队(R-SWEs),这些软件工程师会帮助研究科学家实现他们的目标。软件工程师的工作包括扩展给定的算法、实现基线算法、运行各种实验,开源重要算法,将给定算法针对特定产品做优化等。这些都是我们研究项目的一个组成部分,因此软件工程师通常是我们论文的共同作者。
  Dumitru
Erhan:谷歌大脑团队中的“研究科学家”和“工程师”之间的界线有时(通常是)是非常模糊的。有许多人根据项目或他们当前兴趣的不同,随时转换身份。只是因为官方title是“研究员”,并不意味着他们就不会提供产品级别的代码了!
  Pi-Chuan
Chang:我是一名软件工程师(SWE),拥有CS博士学位。我现在是谷歌大脑的成员,但在谷歌之前我也在其他研究团队工作过。总的来说,我的印象是,谷歌大脑研究科学家和工程师之间的界限可能非常模糊,更多地取决于人的技能和偏好,而不是title。我个人喜欢做软件工程任务和研究项目的混合。我也喜欢与不同的人合作。我真的不在乎他们的头衔是什么。而且,作为“研究员”,能够编写干净可读的代码,对于良好和可重复的研究实际上是至关重要的。明晰的代码和文档对于沟通至关重要,对于研究人员和工程师都是如此。
  把谷歌大脑和DeepMind这样的研究团队分开来的主要目的是什么?是因为 DeepMind 是被收购的,在签署合约上有一定的独立权限保留吗?
  George Dahl:我们保持着合作,尽管只有少数的谷歌大脑研究人员在伦敦工作,且大多数DeepMind
研究人员都不在加州工作,时差有时候会带来挑战。两个团队都够大,我们也不缺合作者。但是,因为有很多牛人都同时在两个团队工作,我们还是有时间合作的。
  我不赞成这样的想法:因为不在同一个团队中,所以内耗会增加。与两个生产竞品的研发团队不同,两个研究团队可以根据需要,在彼此的研究基础上轻松地生产和协作。谷歌大脑和
都致力于开放式机器学习研究并会定期发布。我们都像学术界一样享受高度的研究自由。我们开展研究的方式相似。我们在许多不同的应用领域和时间范围内进行一系列项目。谷歌大脑和
DeepMind 都会探索有影响力的应用。我们不局限于单独的研究领域,因为研究人员将自然地遵循自己的兴趣,并根据其他同期工作来定位他们的工作。
  因为这两个团队都非常大,可以自我维持自我运转,所以不能也不必合并成一个。管理更大的组往往更难。
  也就是说,大脑团队对 TensorFlow 负责,DeepMind
则不用。但就研究方面而言,我们真的非常相似。研究计划的任何差异都更可能是由每个团队的特定人员的具体兴趣所驱动的。
  Google Brain组织结构是怎么样的?每个人都主要靠自己,还是都在某个专注于具体问题的团队里工作?每个团队每周都会和Jeff
Dean、Geoff Hinton 开会吗?你们跟不在山景城的那些团队多久沟通一次?
Bengio:谷歌大脑的研究科学家制定他们自己的研究目标,公司也鼓励他们与任何他们想要合作的人合作,实现更大的目标。我们确实有一个(相当扁平的)管理结构,但并不总是与研究项目保持一致。人们经常会与跟项目有关的小组开会,而不是管理意义上那种。不过,我们整个团队确实会定期开会(但是,频率是每几个星期一次,因为我们现在是一个非常大的团队)。我经常通过视频会议与几个不同办公室的同事开会(山景城,旧金山,蒙特利尔,剑桥,纽约,苏黎世)。
  谷歌大脑评价体系:如何衡量“成功”这件事?
  你们认为,团队做研究时,什么样的情况算成功?
  Nicolas Le
Roux:研究的成功可以有很多种形式。有些人可能对偏理论的方面感兴趣,当我们对现有问题的理解有所改善,那么我们就认为研究是成功的。在国际会议和期刊发表的文章也能量化地衡量研究工作的成功。机器学习研究的另一个重要部分是了解什么是使系统工作真正必要的,因此,我们也乐于见到任何提升知名系统性能的贡献。在这种情况下,外部出版物和对谷歌产品的影响都能用来衡量成功。一般来说,我们非常幸运的是,谷歌大脑有很好的兴趣组合,团队定期将项目投入生产,例如改进Google翻译,以及持续在顶会上的发表文章(今年谷歌大脑团队在NIPS被接收了23篇论文)。
  Jasmine
Hsu:对于谷歌大脑机器人团队来说,只有在真实世界运行机器人时,才算真正的成功。但是,这期间也有较小的里程碑,比如建立可扩展的机器人基础设施,发表有影响的研究,或实现干净的开源Tensorflow模型,也是一样算成功!
  谷歌还会发布更新一代的TPU吗?
  还会有新版本的TPU吗?谷歌会不会出售TPU(还是说只出租)?你们认为定制硬件将取代通用GPU吗?
Stone(poiguy):我们已经公布了第一代TPUv1和第二代TPUv2。至于还会不会有新的版本,欢迎你来猜啊:)到目前为止,我们只宣布了在我们的数据中心部署这些TPU的计划。
  我们也广泛使用GPU,并正在努力扩展TensorFlow支持NVIDIA
V100等新型GPU。这个领域的发展速度非常快,人们对各种各样的应用感兴趣,所以不清楚任何一个平台将无限期地覆盖每个用例。GPU还具有机器学习以外的许多用途,并且对于需要高水平浮点精度的传统HPC计算,它们可能仍然是更好的选择。  {
&&& 文章来源:微信公众号新智元
(责任编辑:娄在霞 )
分享给小伙伴们:
本类最热新闻
48小时最热
.cn 版权所有}

我要回帖

更多关于 google推广怎么做 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信