崽崽龙08
美团是家值得研究的公司,五千团大战笑到最后,为后续的公司的进一步发展和最终上市奠定了基础,本文就发掘一下美团的运营秘密。 1.六请干嘉伟 王兴在五千团大战前六赴杭州,终于说动了当时阿里运营总监干嘉伟,眼光非常独到。 为什么要六请干嘉伟? 在O2O运营最厉害的是阿里,阿里的中供铁军成就了阿里,而当时运营总监正是干嘉伟操刀。 2.干嘉伟对于团购市场的判断 团购市场存在规模效应和用户边际效应,意味着5000多家绝大多数会死掉。成功跟钱有关,跟团队和运营人员有关,但是公司资源有限,干部有限。 要活下来取得最后胜利既要规模,又要扩张速度,所以整个市场存在721效应:7成的公司要死去,2成公司能活下来,只有1成的公司能赚钱。3.如何赢全国? 基于以上对于市场的判断,这场战争的结果就要以赢全国为目标,如何赢全国? 中国有350多个地级市,2800多个县,350多个地级市,将这些城市按照经济情况可以分为5级: S级北上广深———一线城市,属于兵家必争之地,战斗最漫长,属于各个公司最后放弃的地方,对于这些城市要做好跑马拉松的准备,长期竞争,战斗最为凶猛,在前期不能投入绝大多数资源去拼抢,只要保持处于第一梯队,咬住竞争对手即可。C,D级——也就是三四线城市,这些城市不需要去打,因为这是竞争对手遇到问题,最先放弃的市场,比如绵阳,这是美团到了2013年,战争到了后期才进入的市场。A级城市———也就是省会城市和发达省份的发达城市,资源最为集中,这是美团争夺的重点城市,美团把有限的资金和人力都投入了这些城市,最终在2012年取得绝对领先,支撑了业务的快速扩张。4.美团如何补贴? 千团大战开始,各个公司为了抢夺市场,进行了大量的补贴,很多公司甚至花钱买来的流水。而美团对此说不,认为花钱买来的流水对于美团没有价值(对于拿了融资的公司来说不一定)。供给端是核心,是要要占领用户的心智,所以他们的补贴正是为了制造差异化,制造独特的供给,这样才会有人无我有,从而占领用户心智,拿到有效的流量。以北京餐饮市场为例,北京有12万家餐饮企业,美团挑选了头部的餐厅,进行了推广合作,提供补贴,补贴的就是条件独家合作。这样要客户想去哪个餐厅就餐,一想就是只有美团有,平台的流量随之而来。 5.如何追求毛利? 企业如果没有毛利,证明生意没有价值,能要到毛利,证明这个生意才有价值。那么如何才能要到毛利?O2O市场本质上是零售的哲学。那么零售是怎么赚钱的?问零售去取经,零售已经有100年的历史,各种案例非常丰富,所谓太阳底下没有新鲜事,向零售学习肯定比向拍脑袋决策来的更靠谱。 学习零售后,学习到品类控制,不需要每个城市挣钱,不需要每个品类挣钱。一部分品类带来流量,而另一部分品类带来利润。而且零售已经做到了数据可量化,可追溯,可控制。 那么对于美团来说也是同样,将全国运营的70多个城市分为十几个不同行业,1000多个节点,一部分节点追求流量,一部分节点追求利润。对于运营数据也像零售那样做到可量化,可追溯,可控制。这样一来,美团实现了盈利,而且是第一家实现盈利的团购平台。 6.美团的早会实现盈利了,公司要持续发展就需要持续不断盈利,而且竞争对手也会学习,如何脱颖而出?靠运营。此时的美团已经是一个几万人的企业,如何优化管理,让业务继续发展和壮大? 美团实行了一项雷不动的行动——早会。每个公司都有早会,美团的特别之处在哪儿? 全公司每天开早会,基于昨日的运营数据进行分析,分析日环比等各个维度的25项数据。 这样一来,每天团队都在进步,团队的进步意味着公司在以天为单位进化,这比竞争对手的周会又领先一步,每天都分析业务数据采取措施和每周进行同样的工作在时间维度上来说,迭代次数更多,赢的几率更大。 7.最终的胜利是团队的胜利 美团取得了持续的盈利,而资本寒冬到来,大量没有实现盈利的团购企业最终倒下,美团却实现了持续盈利,越做越大,最终挺进全国。而全国的胜利需要更多的运营人才,通过千团大战培养起来的团队已经成为公司的中坚力量,公司的持续扩张为他们提供了职业晋升的舞台。 美团的胜利是团队的胜利,让我们祝福美团,向美团学习,期待他们创造新的奇迹。 关于美团的人才战略下篇文章做详细阐述。
李小墨Lena
现今社会发展迅速,外卖行业确实如日中天,现在的外卖巨头美团确实对我们的生活做出了相对应的改观。对比大学生而已,能让大学生在充足的学习之后能更好的放松能更好的利用自己的时间,而不是每天去为吃什么而发愁。的确这是好的方向,那反之呢,是不是大学生连宿舍门口都不愿意出呢,每天足不出户身体日渐油腻,一点大学生阳光积极向上的样子都失去了。不过在外卖行业也是有很多方向是需要去考虑的,比如在疫情这个第三方插足的情况下呢,是不是又是另一番说辞,这个还有待考究。
小小miffy
现象:许多大学生为了方便舒适,选择了点外卖 研究目的;分析在校大学生使用美团外卖软件的消费习惯;比较不同使用者的行为差异;美团外卖对大学生在校生活的影响;为美团外卖的未来发展提出可行性建议;解决办法:树立健康的生活观念;学校等群体通过宣传等手段倡导学生养成良好的生活习惯等。
子非鱼1102
论文: 题目:《Leveraging Historical Interaction Data for Improving Conversational Recommender System 》 地址: 这是我第一次将美团发表的论文写在这上面,该论文是人大跟美团这边合作在CIKM上面的一篇短论文,研究的是如何利用历史交互的数据来进行对话式的推荐。 最近,对话推荐系统(CRS)已成为一个新兴且实用的研究主题。 现有的大多数CRS方法都专注于仅从对话数据中为用户学习有效的偏好表示。 然而,本论文从新的视角来利用历史交互数据来改善CRS。 为此,这篇论文提出了一种新颖的预训练方法,以通过预训练方法集成基于物品的偏好序列(来自历史交互数据)和基于属性的偏好序列(来自对话数据)。 随着电子商务平台中智能代理的快速发展,对话推荐系统(CRS)已成为寻求通过对话向用户提供高质量推荐的新兴研究主题。 通常,CRS由对话模块和推荐模块组成。 对话模块侧重于通过多回合互动获取用户的偏好,推荐模块侧重于如何利用推断出的偏好信息为用户推荐合适的商品。 现有的大多数CRS都以“系统要求用户响应”模式设计的。在每轮对话中,CRS都会发出有关用户偏爱的问题,并且用户会使用个性化反馈对系统进行回复。通常,系统会根据商品的某些属性(例如,你最喜欢的电影类型是什么)来生成系统查询,并且用户反馈会反映用户对该属性的特定偏爱(例如,我喜欢动作电影)。主流方法是构造一种跟踪模块,该模块可以从这种多轮对话中推断出用户的基于属性的偏好。以此方式,可以将所推断的偏好呈现为所推断属性的序列(例如,电影CRS中的“流派=动作→导演=詹姆斯·卡梅隆”。有了这个序列后,我们就可以用一些方法来进行推荐来,比如可以采用知识图谱来进行推荐。 但是,这些现有的CRS研究存在两个主要问题。首先,对话本身的信息非常有限。许多CRS得到了进一步优化,以减少系统与用户交互的回合数。因此,在基于属性的推断偏好中,可能会丢失一些有用的属性。其次,仅利用基于属性的偏好来进行推荐可能还不够。例如,即使在过滤了几个属性之后,候选项目集仍可能很大。 现在要解决以上提到的两个问题,我们就需要把基于item的方式和基于属性的方式进行结合。其中,基于历史交互item的方式反映的是用户的长期兴趣,基于会话属性的方式反映的是用户当前的兴趣,也就是短期兴趣,这是一个典型的长短期兴趣结合的任务。 A:之前说了,在CRS系统中,一个用户进行多轮对话后,会有一个item属性的集合,A就是这个集合 = ,其中 属于A,是item的属性,n是属性序列的长度 ,其中 是用户在对话前第k步与之交互的item :我们进一步假设每个项目ik也与一组属性值相关联,用Aik表示,它是整个属性集A的子集。 任务的定义:根据CRS模块,首先收集到基于属性的序列 ,然后利用点击序列 进行推荐。关于这个任务的定义,深入理解应该是这样:我们是先有属性序列,然后主要根据点击序列进行推荐,属性序列的建模是子模块任务,序列推荐是主任务,序列推荐任务在属性序列更新后可以反复利用这个信息,只要属性序列更新。 论文的base model是用Transformer做的,输入部分是embedding层,这部分除了有item id的embedding矩阵,还有属性的embedding矩阵,输入还有个P,这个就不说了,位置向量。 中间的运算就是Transformer的过程了,self-attention 跟ffn,这里不懂transformer结构的可以看一下论文。 输出部分是预测候选item i的概率:其中ei是i的原始embedding向量,W是映射矩阵,两个s是item和属性经过transformer结构出来的最后一个向量。 熟悉bert的都知道mask language model,把item序列中的item 用mask替代,然后预测这些被mask掉的item。 其中fik是item transformer结构出来的位置k出来的向量,SA是熟悉结构出来的Aik的位置出来的向量,W是映射矩阵,eik是原始的item embedding。 为了更好的让item based的信息跟attribute based的信息进行融合,论文也采取了一种另类的mask方法,用随机负采样的属性来替代Aik, 其中fik是被替换的那个item经过trm出来的向量,W是映射矩阵,faj是属性trm出来的向量,预测的概率是aj是否是被替换过。 在LTR里面,如果采用的是pairwise的优化方式,那么负采样的技术就至为关键了,而且优化了正样本的概率大于负样本的能力,所以需要选取一种负采样的方法来给我们整个模型的优化带来提升。 MIP里面负采样的方式用的是 IR-GAN 和 ELECT这两篇论文所采用的方式。 改论文选择了SASRec作为第一个阶段的pairwise ranking的模型,这个模型也是论文中用来sample 负样本的模型。负采样是这么做的:我们先用pairwise ranking的方式训练一个模型作为生成器,得到了候选item的概率分布,有了这个概率分布我们就可以拿来负采样了,因为排序高的items跟真实的很接近。至于为什么选择这个模型,论文里面说是因为这个论文在序列推荐任务中的表示特别好,也就是它作为ranking的模型效果还不错。请注意,尽管可以像标准GAN中那样更新生成器,但是我们只训练它的参数一次。 根据经验,我们发现迭代更新带来的改进是有限的。 整个训练分成两个阶段,第一个是预训练阶段,就是训练两个表示学习模型,第二个是微调阶段,学习的是rank loss:
完美主义的根源,是幼儿式的二分法思维模式。完美主义就是要求十全十美,这样的表述是毫无意义的,必须界定其背后的价值判断。 完美主义,最根本,最简单的形式是一体两面
美团是家值得研究的公司,五千团大战笑到最后,为后续的公司的进一步发展和最终上市奠定了基础,本文就发掘一下美团的运营秘密。 1.六请干嘉伟 王兴在五千团大
没问题,帮你.
浅谈高职院校学生社团存在的问题及对策论文 论文摘要:学生社团既是学校思想政治工作的一个重要渠道,又是学校环境育人的有效途径。学生社团在定位、建设与管理方面存在着
到google 搜索一下吧,多搜些评论,组合在一起就OK了