LinkedIn的第一个投资是数据基础架构启动融合
以商务为导向的社交网络公司LinkedIn已进入风险投资世界,支持一个名为Confluent的全新的大数据启动,它脱离了LinkedIn。
参见,Technology Confluent专注于 - Apache Kafka开源项目,即立即将数据推入所有地方所需的地方 - 从LinkedIn出来,以回应公司的工程需求。
Confluent背后的人是Apache Kafka背后的一些关键人物,而Linkedin Loves Apache Kafka和其背后的人。因此,LinkedIn投资于Confluent的新汇率为690万美元,因为汇合出来,以帮助公司成为大数据世界的当代企业通讯工具,这是一个有意义的。
这是交易如何下降:
几个月前,Jay Kreps是Apache Kafka的共同创意者告诉高级工程和运营凯文斯科特副总裁,他选择与同事Jun Rao和Neha Narkhede的同事融合。
“[斯科特]实际上非常兴奋,”Kreps今天在采访中告诉Vidturebeat。“他说,'嘿,这真是太棒了,这真的是我们喜欢看到的,你知道,发生。......我想找到我们投资的方法,所以让我和我们的首席执行官一起谈谈杰夫[Weiner]。他这样做了,第二天,他说,'是的,我们有兴趣。让我们p出来是什么意义。“”
Kreps和Confluent团队得到了组装资金的帮助。然后,他解释说,它绕过硅谷的投资者来讲述它的故事。
结果:基准资本是在月初启动中领先的。数据集体也与LinkedIn一起参与。
但是不要得到错误的想法。LinkedIn并不是为了开始一个风险臂。
“我们没有披露有限公司的LinkedIn投资,并没有建立一个风险投资,并没有额外的计划在其他初创公司中进行投资,”一位LinkedIn发言人在电子邮件中写入VidtureBeat。
这只是LinkedIn,唯一的Apache Kafka Startup - 现在 - 对LinkedIn相当重要。反之亦然。
“我们希望继续与他们密切合作,”Kreps说。“那里有一大堆真正有才华的基础设施工程师。我们还在开放源发布之前,我们也在新软件中推出了很多更改的新软件。......那种真实的生产环境非常重要。“
从这个意义上讲,Confluent与LinkedIn的关系是与Hadoop分销提供商Hortonworks的关系类似于Hadoop的关系,其中Hadoop最初创建。山景,加利福尼亚州的Confluent有一个原始故事,从一开始就可以为其工具讲述和伟大的探索。
与此同时,来自LinkedIn的Apache Kafka周围的开源社区的融合福利包括数千家公司,如Netflix,Pinterest,Uber和Verizon,Kreps今天在博客帖子中写道。该社区可以提供人才游泳池和一个开始寻求客户的地方。
人们确实希望支持Apache Kafka。Kreps肯定的那么多。
“通过开源,我们与更多使用Kafka的公司互动,为这些更大和更大的用例,”他说。公司希望以某种方式获得LinkedIn工程师的支持。因此,一年前的灯泡时刻,当Kreps认为它可能并不是那么糟糕的想法来开始公司。
“我们有很多真正的良好的电话,真正寻求商业支持,”Kreps说。“这不是一个巨大的飞跃。”