您好,我想请问下15岁预期寿命爱情是什么么意思?

卫生部报告显示东西部人均预期寿命相差15岁
2020年,中国的医疗卫生体系会是什么样?
8月17日,在中国卫生论坛上,卫生部发布了《“健康中国2020”战略研究报告》(下称“报告”),提出“健康中国2020”的总目标是“改善城乡居民健康状况,提高国民健康生活质量,减少不同地区健康状况的差异,主要健康指标达到中等发达国家水平”。
报告同时指出,实现健康中国2020总目标仍面临七个方面的挑战。
来自总体层面的挑战包括社会转型、地域差异以及疾病负担。
全球化、工业化、城镇化、老龄化等因素,使食品药品、饮水、职业等安全问题成为重大健康危险因素,并使国民面临重大传染病和慢性非传染性疾病的双重威胁。在这个大背景下,我国又面临地域、人群方面的差异。
报告显示,我国人均寿命尽管已经提高到2005年的73岁,但东西部省份人均预期寿命相差多达15岁。这种差异,使我国既面临发达国家的健康问题,又面临发展中国家的疾病和健康问题,导致城乡居民的疾病负担日益加重,其中尤以慢性疾病造成的疾病负担最为沉重。
此外,重大健康问题和健康危险因素,成为两大直接威胁公民健康的挑战。
目前,我国肝炎、结核、艾滋病等传染病以及慢性病的发病率和死亡率都在不断上升,重大地方病亦尚未得到有效控制;同时,食品药品安全、吸烟等不健康的生活方式、环境污染的加剧。这两方面对国民健康都构成威胁。
卫生体制方面的挑战,则突出表现为医疗卫生服务和公共卫生政策与实际需求之间的较大差距。卫生资源总量仍然不足,结构不合理,卫生服务的公平性和可及性仍然较差。这一现状,也与当前看病难、看病贵的问题密切相关。
我国正在推进的新医改所着力重点解决的,正是卫生事业发展所面临的基本制度安排问题。
卫生部部长陈竺在卫生论坛上表示,我国“十二五”医改的思路已明确为“健全医保、规范医药、创新医疗”的三轮驱动机制。“医保是基础,医药是关键,医疗是根本。”陈竺说。
但三轮驱动机制的发挥还面临一些障碍。陈竺还表示,障碍主要表现在目前这三者仍属于不同部门管理,而且在关键问题的衔接机制上仍存在不协调。
目前,卫生部已经考虑促进三轮驱动的两大抓手:一个是继续推动公立医疗机构的补偿机制改革,办法是推进价格改革和支付方式改革;一个是选择符合特定条件的大病,提高保障水平。
对于大病保障的机制,陈竺表示,德国、法国等的经验说明这是种成功的做法,并指出这种方式的特点主要有三个方面:可以约束费用、减轻个人负担,促使医疗机构采取临床路径,以及反制药价需要、规范流通秩序,利于医药产业发展。刘涌
(本文来源:新华网
没有相关新闻
网易声明:网易转载上述内容出于传递更多信息之目的,不表明证实其描述或赞同其观点。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
跟贴读取中...
跟贴昵称修改后,论坛昵称也会变哦
复制成功,按CTRL+V发送给好友、论坛或博客。
浏览器限制,请复制链接和标题给好友、论坛或博客。
网易财经48小时评论排行
评论2104条
评论2062条
评论1770条
评论1602条
评论1272条
网易公司版权所有来自子话题:
&b&其实楼主去看课本比看我的回答要好。&/b&&br&&b&&br&&br&先说treatment和condition。&/b&Treatment就是研究人员想控制的因素(factor)的途径,但这个途径一般有几个层次。比如:控制”教学方法“这个变量,如果我想比较A,B,C,D这几个方法,那么这几个方法就是不同的treatment level。 在其他情况下可能还有一个控制(control)或者安慰剂(placebo)的情况,这也算treatment level里的一个。很简单,treatment里面的层次(treatment level)也被称为condition。比如上面例子的A,B,C,D就是不同的condition。&br&&br&我觉得很多时候treatment和condition都是混用的,毕竟几乎没有差别。比如A,B,C,D我可以成为treatment A, treatment B....也可以说condition A, condition B...&br&&br&&b&再说block。&/b&其实block有两种意思,一种是一般实验设计里的,一种是fMRI实验中常用的block design,是不同的概念。(你应该说的是第一种)&br&一:&br&Block这个概念是对应于完全随机试验的,它一个重要的特质就是每个block里面的被试者一定是相同的。同前面的例子,我想比较A,B,C,D四种教学方法,那么我随机分配(random assign)相同数量被试者去A,B,C,D这四个condition里面,形成四个被试组(group),这四个组就称为”Block“。当然这是最简单one way design(只有一个自变量:教学方法)。&br&&br&复杂一点,比如我加入”性别“这个factor(有男、女这两个level) 到上面那个实验中,让它变成一个two-way design。这意味着我不仅想比较A,B,C,D四种教学方法,还想比较这四种教学方法对男女是否会有不同的效果。这时候就出现了2x4=8个block:&br&&img src=&/f924a49c439a9b1b2bce4_b.jpg& data-rawwidth=&418& data-rawheight=&228& class=&content_image& width=&418&&同样,这个设计中,每个block的人数要保持相同。&br&&br&再复杂一点,我想引入第三个自变量:学生的入学考试分数。假设分为高,中,低三个层次。这时候这个实验就变成了复杂的three-way的设计方案,共有3x2x4=24个block。如果图表划出来的话是立体的。&br&&br&这时候你会发现,随着实验设计复杂程度的增加,block越来越多,如果保持被试者数量不变的话,分配到每个block里的人数就越少。于是引入power analysis来计算在某种实验设计的前提下,要达到某个具体的标准,需要的被试者人数(样本容量)是多少。&br&二:&br&Block这个词也被运用在fMRI和一些神经科学的实验设计中。如图:&br&&img src=&/652c8dd6c13fe73d6d65f_b.jpg& data-rawwidth=&630& data-rawheight=&513& class=&origin_image zh-lightbox-thumb& width=&630& data-original=&/652c8dd6c13fe73d6d65f_r.jpg&&因为要让被试者在接受某个刺激(stimuli)之后,有充足的时间让大脑活动恢复到接受刺激前的水平,需要提供一个休息时间(rest) 。这样整个测试过程就被人物划分出来很多区块(block)。&br&&br&&br&&b&再来回答你问题描述里的情况&/b&&br&&br&&b&“一组人先在条件一(condition 1)完成,再在条件二(condition 2)完成。”&/b&&br&这是典型的within-subject design, 其实你自己已经给出了答案。实验研究的是within-subject effect(组内差别)。就是同一批实验者对不同实验条件会有什么反应。 这里的条件一和条件二都是某个treatment的不同层次(condition),当然也可以说就是不同的treatment,两者没有差别。这里采用的分析方法一般是paired t-test 或者 repeated measure ANOVA (condition&=3)。&br&&br&这里当然不能算有俩block,因为被试者不是被随机分配到人数相等的实验组里。&br&&br&&br&&b&“两组人在同一个条件下完成实验”&/b&&br&这是个one way between-subject design。实验研究的是between-subject effect (组间差别)。就是你拿来&b&给被试者分组的这个条件&/b&对实验结果有什么影响。比如说性别啊,受教育程度都是典型的组间因素。这里的分析方法是independent sample t-test 或者one way ANOVA.(分组&=3)。&br&&br&如果实验条件有两个,或者两个层次呢,就会有两个组间差别(被试者分组条件+实验条件),用的方法也变为factorial ANOVA.&br&&br&&br&&b&其实还有一种情况你没有提到,就是Mixed design.&/b&&b&&两组人先在条件一完成,再在条件二完成”&/b& 这样的设计兼顾了组内和组间差别。统计方法是mixed ANOVA。
其实楼主去看课本比看我的回答要好。先说treatment和condition。Treatment就是研究人员想控制的因素(factor)的途径,但这个途径一般有几个层次。比如:控制”教学方法“这个变量,如果我想比较A,B,C,D这几个方法,那么这几个方法就是不同的treatment leve…
来自子话题:
&a href=&http://accord-framework.net/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&accord-framework.net/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&
这个不错的。 &br&C#版本的的机器学习库&br&&a href=&/accord-net/framework/wiki/Classification& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Classification&i class=&icon-external&&&/i&&/a&.&p&&a href=&http://accord-framework.net/docs/html/N_Accord_MachineLearning_VectorMachines.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Support Vector Machines&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Models_Regression_LogisticRegression.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Logistic Regression&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_DecisionTrees_DecisionTree.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Decision Trees&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/N_Accord_Neuro.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Neural Networks&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Neuro_Networks_DeepBeliefNetwork.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Deep Learning (Deep Neural Networks)&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Neuro_Learning_LevenbergMarquardtLearning.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Levenberg-Marquardt with Bayesian Regularization&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Neuro_Networks_RestrictedBoltzmannMachine.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Restricted Boltzmann Machines&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Models_Markov_Learning_HiddenMarkovClassifierLearning.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sequence classification&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Models_Markov_HiddenMarkovClassifier.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Hidden Markov Classifiers&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Models_Fields_HiddenConditionalRandomField_1.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Hidden Conditional Random Fields&i class=&icon-external&&&/i&&/a&.&/p&&br&&a href=&/accord-net/framework/wiki/Regression& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Regression&i class=&icon-external&&&/i&&/a&.&p&&a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Models_Regression_Linear_MultipleLinearRegression.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Multiple linear regression&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Models_Regression_Linear_MultivariateLinearRegression.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Multivariate linear regression&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Models_Regression_Linear_PolynomialRegression.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&polynomial regression&i class=&icon-external&&&/i&&/a&, logarithmic regression. &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Models_Regression_LogisticRegression.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Logistic regression&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Models_Regression_MultinomialLogisticRegression.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&multinomial logistic regression (softmax)&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Models_Regression_GeneralizedLinearRegression.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&generalized linear models&i class=&icon-external&&&/i&&/a&. &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_ProbabilisticNewtonMethod.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&L2-regularized L2-loss logistic regression&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_ProbabilisticDualCoordinateDescent.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&L2-regularized logistic regression&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_ProbabilisticCoordinateDescent.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&L1-regularized logistic regression&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_ProbabilisticDualCoordinateDescent.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&L2-regularized logistic regression in the dual form&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_SequentialMinimalOptimizationRegression.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&regression support vector machines&i class=&icon-external&&&/i&&/a&.&/p&&br&&a href=&/accord-net/framework/wiki/Clustering& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Clustering&i class=&icon-external&&&/i&&/a&.&p&&a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_KMeans.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&K-Means&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_KModes.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&K-Modes&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_MeanShift.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Mean-Shift&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_GaussianMixtureModel.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Gaussian Mixture Models&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_BinarySplit.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Binary Split&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Neuro_Networks_DeepBeliefNetwork.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Deep Belief Networks&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_Neuro_Networks_RestrictedBoltzmannMachine.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Restricted Boltzmann Machines&i class=&icon-external&&&/i&&/a&. Clustering algorithms can be applied in arbitrary data,&a href=&/accord-net/framework/wiki/Sample-applications#color-clustering-kmeans-and-meanshift& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&including images&i class=&icon-external&&&/i&&/a&, data tables, videos and &a href=&/accord-net/framework/wiki/Audio& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&audio&i class=&icon-external&&&/i&&/a&.&/p&&br&&a href=&/accord-net/framework/wiki/Distributions& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Distributions&i class=&icon-external&&&/i&&/a&.&p&Parametric and &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Univariate_EmpiricalDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&non-parametric estimation&i class=&icon-external&&&/i&&/a& of more than 40 distributions. &a href=&http://accord-framework.net/docs/html/N_Accord_Statistics_Distributions_Univariate.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Univariate&i class=&icon-external&&&/i&&/a& distributions such as &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Univariate_NormalDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Normal&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Univariate_CauchyDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Cauchy&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Univariate_HypergeometricDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Hypergeometric&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Univariate_PoissonDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Poisson&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Univariate_BernoulliDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Bernoulli&i class=&icon-external&&&/i&&/a&, and specialized distributions such as the&a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Univariate_KolmogorovSmirnovDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Kolmogorov-Smirnov&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Univariate_NakagamiDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Nakagami&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Univariate_WeibullDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Weibull&i class=&icon-external&&&/i&&/a&, and&a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Univariate_VonMisesDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Von-Mises&i class=&icon-external&&&/i&&/a& distributions. &a href=&http://accord-framework.net/docs/html/N_Accord_Statistics_Distributions_Multivariate.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Multivariate&i class=&icon-external&&&/i&&/a& distributions such as the &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Multivariate_MultivariateNormalDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&multivariate Normal&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Multivariate_MultinomialDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Multinomial&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Multivariate_Independent_1.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Independent&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Multivariate_JointDistribution.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Joint&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Distributions_Multivariate_MultivariateMixture_1.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Mixture distributions&i class=&icon-external&&&/i&&/a&.&/p&&br&&a href=&/accord-net/framework/wiki/Hypothesis-Tests& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Hypothesis Tests&i class=&icon-external&&&/i&&/a&.&p&More than &a href=&http://accord-framework.net/docs/html/N_Accord_Statistics_Testing.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&35 statistical hypothesis tests&i class=&icon-external&&&/i&&/a&, including&a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_OneWayAnova.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&one way&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_TwoWayAnova.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&two-way ANOVA tests&i class=&icon-external&&&/i&&/a&, non-parametric tests such as the &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_KolmogorovSmirnovTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Kolmogorov-Smirnov test&i class=&icon-external&&&/i&&/a& and the &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_SignTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sign Test for the Median&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Analysis_GeneralConfusionMatrix.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&contingency table&i class=&icon-external&&&/i&&/a& tests such as the &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_KappaTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Kappa test&i class=&icon-external&&&/i&&/a&, with variations for &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_AverageKappaTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&multiple tables&i class=&icon-external&&&/i&&/a&, as well as the &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_BhapkarTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Bhapkar&i class=&icon-external&&&/i&&/a& and&a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_BowkerTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Bowker&i class=&icon-external&&&/i&&/a& and the more traditional &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_ChiSquareTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Chi-Square&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_ZTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Z&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_FTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&F &i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_TTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&T&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_Statistics_Testing_WaldTest.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Wald tests&i class=&icon-external&&&/i&&/a&.&/p&&br&&a href=&/accord-net/framework/wiki/Kernel-Methods& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Kernel Methods&i class=&icon-external&&&/i&&/a&.&p&&a href=&http://accord-framework.net/docs/html/N_Accord_MachineLearning_VectorMachines.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Kernel Support Vector Machines&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_MulticlassSupportVectorMachine.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Multi-class&i class=&icon-external&&&/i&&/a& and&a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_MultilabelSupportVectorMachine.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Multi-label machines&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_SequentialMinimalOptimization.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sequential Minimal Optimization&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_LeastSquaresLearning.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Least-Squares Learning&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_ProbabilisticOutputCalibration.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&probabilistic learning&i class=&icon-external&&&/i&&/a&, including special methods for &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_SupportVectorMachine.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&linear machines&i class=&icon-external&&&/i&&/a& such as LIBLINEAR's methods for &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_LinearCoordinateDescent.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Linear Coordinate Descent&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_LinearNewtonMethod.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Linear Newton Method&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_ProbabilisticCoordinateDescent.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Probabilistic Coordinate Descent&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_ProbabilisticDualCoordinateDescent.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Probabilistic Coordinate Descent in the Dual&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_MachineLearning_VectorMachines_Learning_ProbabilisticNewtonMethod.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Probabilistic Newton Method for L1 and L2 machines in both the dual and primal formulations&i class=&icon-external&&&/i&&/a&.&/p&&br&&br&&a href=&/accord-net/framework/wiki/Imaging& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Imaging&i class=&icon-external&&&/i&&/a&.&p&Interest and feature point detectors such as &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_HarrisCornersDetector.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Harris&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_FastRetinaKeypoint.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&FREAK&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_SpeededUpRobustFeaturesDetector.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&SURF&i class=&icon-external&&&/i&&/a&, and &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_FastCornersDetector.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&FAST&i class=&icon-external&&&/i&&/a&. &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_GrayLevelCooccurrenceMatrix.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Grey-level Co-occurrence matrices&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_BorderFollowing.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Border following&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_BagOfVisualWords.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Bag-of-Visual-Words (BoW)&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_RansacHomographyEstimator.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&RANSAC-based homography estimation&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_IntegralImage2.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&integral images&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_Haralick.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&haralick textural feature extraction&i class=&icon-external&&&/i&&/a&, and dense descriptors such as &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_HistogramsOfOrientedGradients.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&histogram of oriented gradients (HOG)&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_LocalBinaryPattern.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Local Binary Pattern (LBP)&i class=&icon-external&&&/i&&/a&. Several &a href=&http://accord-framework.net/docs/html/N_Accord_Imaging_Filters.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&image filters for image processing applications&i class=&icon-external&&&/i&&/a& such as &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_Filters_DifferenceOfGaussians.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&difference of Gaussians&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_Filters_GaborFilter.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Gabor&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_Filters_NiblackThreshold.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Niblack&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_Imaging_Filters_SauvolaThreshold.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sauvola thresholding&i class=&icon-external&&&/i&&/a&.&/p&&br&&br&&a href=&/accord-net/framework/wiki/Audio& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Audio and Signal&i class=&icon-external&&&/i&&/a&.&p&Load, parse, save, filter and transform &a href=&http://accord-framework.net/docs/html/T_Accord_Audio_Signal.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&audio signals&i class=&icon-external&&&/i&&/a&, such as applying &a href=&http://accord-framework.net/docs/html/N_Accord_Audio_Filters.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&audio processing filters&i class=&icon-external&&&/i&&/a& in both space and &a href=&http://accord-framework.net/docs/html/T_Accord_Audio_ComplexSignal.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&frequency domain&i class=&icon-external&&&/i&&/a&. &a href=&http://accord-framework.net/docs/html/T_Accord_Audio_Formats_WaveDecoder.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&WAV files&i class=&icon-external&&&/i&&/a&,&a href=&http://accord-framework.net/docs/html/T_Accord_DirectSound_AudioCaptureDevice.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&audio capture&i class=&icon-external&&&/i&&/a&, time-domain filters such as&a href=&http://accord-framework.net/docs/html/T_Accord_Audio_Filters_EnvelopeFilter.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&envelope&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Audio_Filters_HighPassFilter.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&high-pass&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Audio_Filters_LowPassFilter.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&low-pass&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Audio_Filters_WaveRectifier.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&wave rectification&i class=&icon-external&&&/i&&/a&filters. Frequency-domain operators such as&a href=&http://accord-framework.net/docs/html/T_Accord_Audio_ComplexFilters_DifferentialRectificationFilter.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&differential rectification filter&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_Audio_ComplexFilters_CombFilter.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&comb filter with Dirac's delta functions&i class=&icon-external&&&/i&&/a&. Signal generators for&a href=&http://accord-framework.net/docs/html/T_Accord_Audio_Generators_CosineGenerator.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Cosine&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Audio_Generators_ImpulseGenerator.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Impulse&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Audio_Generators_SquareGenerator.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Square&i class=&icon-external&&&/i&&/a& signals.&/p&&br&&br&&a href=&/accord-net/framework/wiki/Vision& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Vision&i class=&icon-external&&&/i&&/a&.&p&&a href=&http://accord-framework.net/docs/html/T_Accord_Vision_Detection_HaarObjectDetector.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Real-time face detection&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_Vision_Tracking_Camshift.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&tracking&i class=&icon-external&&&/i&&/a&, as well as general methods for &a href=&http://accord-framework.net/docs/html/T_Accord_Vision_GroupMatching.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&detecting&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/N_Accord_Vision_Tracking.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&tracking&i class=&icon-external&&&/i&&/a& and&a href=&http://accord-framework.net/docs/html/N_Accord_Imaging.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&transforming objects in image streams&i class=&icon-external&&&/i&&/a&. Contains&a href=&http://accord-framework.net/docs/html/N_Accord_Vision_Detection_Cascades.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&cascade definitions&i class=&icon-external&&&/i&&/a&, &a href=&http://accord-framework.net/docs/html/T_Accord_Vision_Tracking_Camshift.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Camshift&i class=&icon-external&&&/i&&/a& and &a href=&http://accord-framework.net/docs/html/T_Accord_Vision_Tracking_MatchingTracker.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Dynamic Template Matching trackers&i class=&icon-external&&&/i&&/a&. Includes &a href=&http://accord-framework.net/docs/html/T_Accord_Vision_Detection_Cascades_FaceHaarCascade.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&pre-created classifiers for human faces&i class=&icon-external&&&/i&&/a& and some facial features such as &a href=&http://accord-framework.net/docs/html/T_Accord_Vision_Detection_Cascades_NoseHaarCascade.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&noses&i class=&icon-external&&&/i&&/a&.&/p&
这个不错的。 C#版本的的机器学习库., ,, , , ,
来自子话题:
图研所:&a href=&/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&
来自子话题:
你说的这个东西,数学里叫做基
你说的这个东西,数学里叫做基
来自子话题:
同学你好!我是某某不知名大学的渣博一枚!现在入Deep Learning大约半年多了吧,写代码写累了,跟你谈一谈我对DL的一些感受吧!&br&&br&&b&仅仅是我个人的观点哈!大神轻拍!&/b&&br&&br&在你题目中所说的“陷阱”,你的意思应该是指tricks吧?一般中文翻译过来有“&b&技巧,小把戏&/b&”的意思,如果理解成“陷阱”,容易误导你。&br&&br&言归正传!&br&我觉得你可以从以下几个方面来权衡考虑你目前的顾虑:&br&&br&&b&1. 导师能力&/b&&br&毕竟,目前深度学习在国内、国外都算是刚刚起步,要说前景的话,整个学术界都没有一个定论!而且深度学习需要有深厚的数学基础。&br&&br&如果你导师或者你的导师组是专门做这个的话,有一帮大腿们可以抱的话,还是很不错的!毕竟嘛,深度学习这个概念实在是太大了,就算你做不出非常大的contribution,在某个问题上做点小改进,硕士毕业肯定不成问题的。&br&&br&如果你导师也是刚进门,甚至对深度学习还没你了解呢!那我觉得你是否以它作为你的硕士毕设就应该三思了!&br&&br&&b&2. 数学功底&/b&&br&&br&深度学习并不是所有计算机分支中最要求数学能力的,但是你要是没有的话(像苦B的答主一样),入门和深入就会很受影响!当然了,什么稀疏低秩、什么BP算法,如果数学功底不强,理解也是能理解的,就是要慢些了!&br&&br&&b&3.编程能力&/b&&br&正如同楼主所说,深度学习的编码并不简单。不过好在Github上有很多大牛已经写好了一些大的框架,如:卷积神经网络CNN的一个经典example &a href=&/BVLC/caffe& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&BVLC/caffe · GitHub&i class=&icon-external&&&/i&&/a&。可以在这个的基础上进行修改并加入你自己的ideas。&br&你看到的很多论文中的performance特别好,其实里面是有很多的tricks,这些tricks你一般问都问不到,人家是不可能告诉你的!还是那句话,如果你的团队在深度学习领域不是很强的话,这些trick你很难能自己想到,没有这些trick,除非你的工作作出了前人都没有想到做到的contribution,否则真的很难做出top-5的结果来。如果你对自己的编程能力有足够的信心,我以上说的你全可以当废话撇了就行!&br&&br&&b&4.时间问题&/b&&br&深度学习相比于CV或NLP而言,属于入门很难的!需要比较长的时间进行积累。归根到底,又回到&b&第一个&/b&问题了,如果你的科研团队在这方面有着丰富的积累,那入门要比你一个人摸索着来得快得多。反之就要花费很多的时间来入门。所以说,你“速战速决”这个想法是否现实,还得看你的导师组的能力了!&br&&br&听楼主的意思是,准备要读博吗?你的博士方向还会做这个吗?&br&&br&如果你的博士方向还会继续研究机器学习(甚至是深度学习)的话,我很建议你硕士毕设就做这个,毕竟深度学习不是那种很快出大成果的,需要时间积累的东西。而且深度学习是一个很值得研究的问题,很适合作为博士的研究方向继续深入研究。&br&&br&如果你博士方向不再做这个了,那我建议你跟你们导师商量商量,换个上手快的方向做做,先保证你拿到硕士毕业证,别让深度学习给你拖死了!&br&&br&还是很希望LZ能够加入DL这个大家庭的!&br&&br&&br&&br&Ps.到时入坑后悔了表砍我哈!
同学你好!我是某某不知名大学的渣博一枚!现在入Deep Learning大约半年多了吧,写代码写累了,跟你谈一谈我对DL的一些感受吧!仅仅是我个人的观点哈!大神轻拍!在你题目中所说的“陷阱”,你的意思应该是指tricks吧?一般中文翻译过来有“技巧,小把戏”…
原因是工业不发达。&br&资本的边际收入高于劳动的边际收入,进而导致机器生产产品相对价值高于劳动产品。而我们进行定价时,使用的标的是机器生产产品,因此从比较的角度来看,我们劳动产品的价值就低。&br&劳动产品价值低,那么服务业就不值钱,所占全部产值比例就低了。
原因是工业不发达。资本的边际收入高于劳动的边际收入,进而导致机器生产产品相对价值高于劳动产品。而我们进行定价时,使用的标的是机器生产产品,因此从比较的角度来看,我们劳动产品的价值就低。劳动产品价值低,那么服务业就不值钱,所占全部产值比例就…
这么高深的问题……查了一下资料,简单说一下自己的猜想。&br&&br&原因可能有这几个:&br&第一,幂律分布的研究起步得比较晚。正态分布在1718年就已经提出,在18世纪末已经很完善了,而泊松分布是1838年发表的,所以他们顺理成章地进入了概率论的教学范畴。而幂律分布则是起步晚发展得比较慢,19世纪帕累托提出了著名的20/80理论,这是幂律的基础,而比较系统的研究的出现时间不可考,但可以知道在复杂网络这一块直到上世纪末才对其有突破研究。&br&第二,虽然幂律分布广泛存在,但其最主要的研究集中于复杂网络领域,不仅时间比较近而且范围很窄。相关的教学大概是在网络理论中涉及。(做出这个判断的依据是在维基上没有其他领域有幂律分布这个概念)&br&除此之外,还有可能是因为幂律分布很难,对于概率统计之类的基础课程来说要求过高,无法加进来。&br&&br&另外我看到武大教授陆君安正在呼吁把幂律分布加入概率论课本中,因为其应用越来越重要,越来越广泛。也许以后真的会有。&br&-----------------------------------------------------------------------------------------------------------------------------------------------&br&话说……接到邀请之后(谢邀~),我给我下学期的概率论老师发了封邮件问这个问题,同时自己也开始查。就在我哼哧哼哧快写完上述yy之后,老师回我了!他是这么说的:“这个分布确实在经典的教科书中(国内、国外都如此)不会讲。这恐怕是由于在数学上,正态分布以及其他的经典分布更是概率论发展初期所常处理的情况。但随着科技发展,power law(幂律)首先在物理中提出来(你去看统计物理、凝聚态物理的文献,有很多这个分布的情况),因为自然界的很多物理规律都满足幂律。现在发现在信息、文本中也越来越常见。”&br&也就是说,幂律分布没进基础课程是因为在时间上没占到先机,随着研究深入、成果越来越多,或许会出现在概率统计的基础课上。&br&&br&&br&ps发现这个理论蛮牛b的,对互联网的理论研究很有用。
这么高深的问题……查了一下资料,简单说一下自己的猜想。原因可能有这几个:第一,幂律分布的研究起步得比较晚。正态分布在1718年就已经提出,在18世纪末已经很完善了,而泊松分布是1838年发表的,所以他们顺理成章地进入了概率论的教学范畴。而幂律分布则…
来自子话题:
&a href=&& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&
来自子话题:
通常来说,统计不需要造假,用不同的方法进行分析,就会得出不同的数据和结论。具体手段可以参见《How to lie with statistics》。要全篇造假反而比这个难许多。
通常来说,统计不需要造假,用不同的方法进行分析,就会得出不同的数据和结论。具体手段可以参见《How to lie with statistics》。要全篇造假反而比这个难许多。
来自子话题:
最简单的办法,假设你的数据叫做 data,我随机生成一点数据。&br&&div class=&highlight&&&pre&&code class=&language-rconsole&&&span class=&gp&&& &/span&data &span class=&o&&&-&/span& cumsum&span class=&p&&(&/span&rnorm&span class=&p&&(&/span&&span class=&m&&500&/span&&span class=&p&&))&/span&
&span class=&gp&&& &/span&forecast&span class=&p&&::&/span&auto.arima&span class=&p&&(&/span&data&span class=&p&&)&/span&
&span class=&go&&Series: data &/span&
&span class=&go&&ARIMA(3,1,2)
&span class=&go&&Coefficients:&/span&
&span class=&go&&
ma2&/span&
&span class=&go&&
-1.6&/span&
&span class=&go&&s.e.
0.7&/span&
&span class=&go&&sigma^2 estimated as 0.8858:
log likelihood=-677.87&/span&
&span class=&go&&AIC=1367.75
AICc=1367.92
BIC=1393.02&/span&
&/code&&/pre&&/div&你可以看到,反正你随便放进去数据总能轻松地跑出一个ARIMA模型的参数估计,对于 forecast 扩展包中的 auto.arima 函数而言,它甚至帮你做了阶数选取。关键问题是:你怎么知道你做的是正确的?&br&&br&此时,你必须要看数据,画相关性图(ACF, PACF)、做一些统计检验之后才有理由假设数据生成过程符合ARIMA模型的形式。模型参数估计之后,还要做一系列统计检验来看看估计出的结果(残差、残差平方等)是否会在统计上违背你原先做出的假设可以推断出的推论。最后,当你完成了模型估计、模型诊断等一系列验证之后发现你的假设没有被数据推翻,此时你才有理由相信你估计的模型可能会比较接近于真正的数据生成过程。另外,ARIMA模型有多种变体(比如季节性),你怎么知道选哪种合适?&br&&br&即使这些都解决了,你仍然对模型不能抱有太大的自信,因为你可以随意通过模拟几个数据生成过程并且用同样的方法做模型估计和检验,你会发现样本量小的情况下即使各种检验都能通过,估计出的参数也很可能和你设定的模型相去甚远。如果你关注你的模型质量的话,那么你需要严谨地学习时间序列分析等内容,否则做出来的东西基本不靠谱。因为你除了可以报告一下估计出来的结果,你有何自信去言说模型估计的好坏?
最简单的办法,假设你的数据叫做 data,我随机生成一点数据。& data &- cumsum(rnorm(500))
& forecast::auto.arima(data)
Series: data
ARIMA(3,1,2)
Coefficients:
ar1 ar2 ar3 ma1 ma2
1.6 0.8 0.8286
s.e. 0.0 0.…
来自子话题:
引用下大牛Simon Matthews的话,我觉得很好的表达了:&blockquote&“Big Data is like teenage sex: Everyone talks about it, nobody really knows how to do it, everyone thinks everyone else is doing it, so everyone claims they are doing it too”&/blockquote&
引用下大牛Simon Matthews的话,我觉得很好的表达了:“Big Data is like teenage sex: Everyone talks about it, nobody really knows how to do it, everyone thinks everyone else is doing it, so everyone claims they are doing it too”
懂了统计学SPSS还需要学习?
懂了统计学SPSS还需要学习?
&p&当粒子的动量为确定值的时候坐标的分布就是负无穷到正无穷的均匀分布。&/p&&p&当粒子的坐标为确定值的时候动量的分布就是负无穷到正无穷的均匀分布。&/p&
当粒子的动量为确定值的时候坐标的分布就是负无穷到正无穷的均匀分布。当粒子的坐标为确定值的时候动量的分布就是负无穷到正无穷的均匀分布。
来自子话题:
我最近也在用python学习机器学习。&br&手头有一些资源,给你分享下,链接如下。&br&&a href=&http://download.csdn.net/detail/roler_/7719001& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&python简明教程chm及源码(快速入门必备)&i class=&icon-external&&&/i&&/a&&br&&a href=&http://download.csdn.net/detail/roler_/7719013& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&python应用核心编程第3版(python core programming application)&i class=&icon-external&&&/i&&/a&&br&&a href=&http://download.csdn.net/detail/roler_/8050797& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习实战(python实现)&i class=&icon-external&&&/i&&/a&&br&&a href=&http://download.csdn.net/detail/roler_/8050805& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Building Machine Learning System with Python(机器学习python实现)&i class=&icon-external&&&/i&&/a&&br&&a href=&http://download.csdn.net/detail/roler_/8050825& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习实践指南&i class=&icon-external&&&/i&&/a&&br&这些是一部分传到了CSDN上,希望有机会可以一起探讨~~
我最近也在用python学习机器学习。手头有一些资源,给你分享下,链接如下。
来自子话题:
入门的话呢,可以看这个.&br&&a href=&http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&UFLDL Tutorial&i class=&icon-external&&&/i&&/a&&br&这个教程是Andrew Ng他们做的。教程讲解了深度学习的基本概念,讲解非常清晰明了,你关心的神经网络的问题,教程里也有讲解。这个教程还有中文翻译,你可以在该页面下方将教程设置为中文。&br&这个教程一个牛逼的地方在于,他会带着你一步一步地实现一个深度学习算法,并在一个手写数字的数据集上测试。&br&但是深度学习里一些其他重要的方法,如Restricted Boltzmann Machines,并没有涉及到。在你学习完这个教程后你可以继续找资料学习。教程中也给了一个Recommended Readings.&br&&br&当然这只是一个入门,告诉你深度学习大概是个怎么回事。如果你要继续学习,就要继续读相应的文献和相关的最新书籍。
入门的话呢,可以看这个.这个教程是Andrew Ng他们做的。教程讲解了深度学习的基本概念,讲解非常清晰明了,你关心的神经网络的问题,教程里也有讲解。这个教程还有中文翻译,你可以在该页面下方将教程设置为中文。这个教程一个牛逼的地方在于…
来自子话题:
这可以看做典型的信息抽取(information extraction)任务,可以用序列标注模型(如条件随机场CRF)来应对。&br&&br&最近有人在twitter等社会媒体上进行事件检测(event detection)的工作,也可以参考,例如这篇:&blockquote&Yangqiu Song, Zhengdong Lu, Cane Wing-ki Leung and Qiang Yang. Collaborative Boosting for Activity Classification in Microblogs. ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD). 2013&br&&/blockquote&此外,我在微博上还看到这个信息,也许对你有用:&br&&blockquote&@AixinSG: 也算是个后续,Twitter 上的event detection (WWW14 tutorial) &a href=&http://t.cn/RhnJo1v& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Towards a Social Media Analytics Platform-- Event Detection and User Profiling for Twitter&i class=&icon-external&&&/i&&/a& 非文本数据上的event detection (KDD09 tutorial) &a href=&http://t.cn/RhnJo1P& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/RhnJo1P&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/blockquote&&br&由于我并不是做这块工作的,所以无法给出全景式的描述,以上信息恐怕也只是窥豹一斑,抛砖引玉,仅供参考。
这可以看做典型的信息抽取(information extraction)任务,可以用序列标注模型(如条件随机场CRF)来应对。最近有人在twitter等社会媒体上进行事件检测(event detection)的工作,也可以参考,例如这篇:Yangqiu Song, Zhengdong Lu, Cane Wing-ki Leung …
一分为二来看。&br&&br&如果为了考统计学的研究生,对经典模型和理论的公式推导务必是要搞清楚。无论研究生入学考试是否要考相应的内容,将来发论文,做研究都绕不开对经典模型的再拓展与证明。&br&&br&但就一般意义上的统计学学习来说,我认为,所有统计模型背后的原理与目的都比细节更为重要。对于工业界自不必多说,最重要的能力是如何将实际问题抽象化,具体的参数估计过程都有现成的软件实现,一般也无需从数学上证明方法的有效性和收敛性,管用就行,所以重点在于深刻理解每一种算法/模型的应用场景。而在学术界,定理的推导和证明固然是基本功,但真正有价值的部分依然离不开对统计学原理的把握与创新。所有的公式推导都是为其而服务的。&br&&br&当然,学统计学的时候,还是建议从一行行公式开始慢慢吃透和理解,这样才能自己悟出其背后的原理和思想。
一分为二来看。如果为了考统计学的研究生,对经典模型和理论的公式推导务必是要搞清楚。无论研究生入学考试是否要考相应的内容,将来发论文,做研究都绕不开对经典模型的再拓展与证明。但就一般意义上的统计学学习来说,我认为,所有统计模型背后的原理与目…
来自子话题:
我曾经在某家 S&P 500(碰巧的是,标准普尔本身就是这家公司的子公司)的子公司做过这类工作。来说个真正工业的。&br&&br&数据导入、导出、清洗全部都用 SQL Server Integration Services,处理过程夹带 SQL 语言。&br&&br&中间如果需要基本统计的,直接用 SQL Server Management Studio 来调试,也可以在此之上创建存储过程。&br&&br&需要更高级统计的,SAS/Stata/R 通过 ODBC 与数据库交互。&br&&br&Excel 的 analytics 直接兼容 SQL Server,可以通过 ODBC 交互,也可以通过 SQL Server Native Client,根本不需要导入导出文件。&br&&br&最后,对于那些小看 Excel 的人,我只能说:图样。
我曾经在某家 S&P 500(碰巧的是,标准普尔本身就是这家公司的子公司)的子公司做过这类工作。来说个真正工业的。数据导入、导出、清洗全部都用 SQL Server Integration Services,处理过程夹带 SQL 语言。中间如果需要基本统计的,直接用 SQL Server Manag…
来自子话题:
作为北师大的学生,虽无缘亲炙,但听过很多启功先生的事情。据我所知,有先生的弟子,也是后来中文系的老师说,肯定有不少题字并非真迹。但也不是完全的假冒!&br&怎么回事呢?据说启功先生家外面一直有人蹲守,只要有垃圾扔出来必去翻检,寻得先生练字或废弃的、未完成字画,再拼凑成完整的变卖之!由此真真假假,谬种流传。
作为北师大的学生,虽无缘亲炙,但听过很多启功先生的事情。据我所知,有先生的弟子,也是后来中文系的老师说,肯定有不少题字并非真迹。但也不是完全的假冒!怎么回事呢?据说启功先生家外面一直有人蹲守,只要有垃圾扔出来必去翻检,寻得先生练字或废弃的…
来自子话题:
统计专业,看到这段感觉槽点太多,简单喷一下,心理学小白,有错误还请各位大大指出。。&br&&br&首先我们来看看原文 &a href=&/blog/ulterior-motives/201012/ten-advances-in-psychological-science-in-2010& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/blo&/span&&span class=&invisible&&g/ulterior-motives/201012/ten-advances-in-psychological-science-in-2010&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&:&br&&blockquote&&strong&&br&&br&The use of Bayesian Statistics&/strong&. In a December article in The New Yorker, Jonah Lehrer pointed out that some phenomena in the psychology literature are not always repeatable. One reason for this failure to replicate results comes from the kinds of statistics often used in Psychology. We use a procedure called Null Hypothesis Testing that was developed over 100 years ago. More recently, statisticians and psychologists have been working to create a new form of statistical testing based on Bayesian statistics. These methods may help us to avoid publishing studies that are not likely to replicate. John Kruschke published a &a href=&/Doing-Bayesian-Data-Analysis-Tutorial/dp//ref=sr_1_1?ie=UTF8&s=books&qid=&sr=1-1-spell& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&nice tutorial&i class=&icon-external&&&/i&&/a& on how to use these methods.&/blockquote&&br&第一个疑点,这里的Jonah Lehrer很明显就是中文版里的乔纳·莱勒,这里只是说他再new yorker发了一篇文章,并没有说是哪里的教授。当然年轻的AP在New Yorker发科普文章并不罕见,虽然一般都会清楚标注出来“这是专家不是我们专栏作家”好推销。。&br&&br&于是我们来google一下这位Jonah Lehrer: &br&- 个人主页:&a href=&/about/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/about/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&br&人家主页上自己都说了I'm a writer哪来什么心理学教授的事。。。&br&&br&- wiki页面:&a href=&http://en.wikipedia.org/wiki/Jonah_Lehrer& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Jonah Lehrer&i class=&icon-external&&&/i&&/a&(wiki墙内搬运工不谢)&br&&blockquote&&b&Jonah Richard Lehrer&br&&/b& (born June 25, 1981) is an American author, journalist, blogger, and speaker who writes on the topics of &a href=&http://en.wikipedia.org/wiki/Psychology& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&psychology&i class=&icon-external&&&/i&&/a&,&a href=&http://en.wikipedia.org/wiki/Neuroscience& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&neuroscience&i class=&icon-external&&&/i&&/a&, and the relationship between &a href=&http://en.wikipedia.org/wiki/Science& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&science&i class=&icon-external&&&/i&&/a& and the &a href=&http://en.wikipedia.org/wiki/Humanities& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&humanities&i class=&icon-external&&&/i&&/a&. He has published three books, two of which, &i&&a href=&http://en.wikipedia.org/wiki/Imagine:_How_Creativity_Works& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Imagine&i class=&icon-external&&&/i&&/a&&/i& and &i&&a href=&http://en.wikipedia.org/wiki/How_We_Decide& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&How We Decide&i class=&icon-external&&&/i&&/a&&/i&, were withdrawn from the market by publishers after it became known that Lehrer had fabricated quotations. This led to his resignation from his staff position at &i&&a href=&http://en.wikipedia.org/wiki/The_New_Yorker& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The New Yorker&i class=&icon-external&&&/i&&/a&&/i& following disclosures that he had recycled earlier work of his own for the magazine. A later investigation at&i&&a href=&http://en.wikipedia.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&i class=&icon-external&&&/i&&/a&&/i&, where he had previously worked, found instances of recycled content and plagiarism. He was fired from that position as a result of the investigation.&/blockquote&&br&实在还不信的话去Indiana U心理系的网站(&a href=&http://psych.indiana.edu/facdirectory.php& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&FACULTY DIRECTORY: Department of Psychological and Brain Sciences: Indiana University Bloomington&i class=&icon-external&&&/i&&/a&)看看也能发现没有名字类似的人,所以到这里基本可以确定至少这个“中国心理学会”的翻译有很大问题。【如果确有此人的话请告知下啦我就删掉这部分】&br&&br&然后再看看原文里的December article, 这个文章是发表的,说的12月应该就是当年12月,google一下不难发现应该是这篇:&a href=&/magazine//the-truth-wears-off& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The Truth Wears Off&i class=&icon-external&&&/i&&/a&, 貌似涉及统计的地方不太多,连bayesian这个词都没有出现,大部分是给lay people看的心理学内容不大想看了。。谁看完觉得有用再写答案吧。。&br&&br&看到这里是不是觉得这篇翻译各种原创?其实也不尽然,注意在原文最后一句给了一个bayesian statistics的链接,打开一看是Amazon上一本Bayesian statistics的书(万恶的广告),乍一看也不算什么心理学的突破,只不过把统计上的各种Bayesian方法和怎么在R和winbugs里用归纳总结了一下而已,简单说就是一本软件使用手册。。。。&br&&br&不过注意看一下作者,&a href=&http://www.indiana.edu/~kruschke/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&John K. Kruschke&i class=&icon-external&&&/i&&/a&, 哈,这才是传说中的印第安纳大学心理系教授,什么“乔纳·莱勒”害我找半天。。。&br&&br&publication list拿好不谢:&a href=&http://www.indiana.edu/~kruschke/publications.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&John K. Kruschke, Publications&i class=&icon-external&&&/i&&/a&, orz一大堆发表在名字里带cognitive science的地方,按照这个翻译的原创(niao)性(xing), 鬼知道哪个是他说的认知科学和“革命性成果”?&br&&br&大概翻了下list,找了一篇最像introductory的文章(&a href=&http://www.indiana.edu/~kruschke/articles/Kruschke2010WIRES.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&indiana.edu/~kruschke/a&/span&&span class=&invisible&&rticles/Kruschke2010WIRES.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&)看了下,基本就是在说一件事,frequentist的null hypothesis significance testing(原来在心理学上有NHST这么萌的缩写一开始没仔细看还以为是什么很高大上的东西@v@)是和researcher的问题有关的,也就是说你要做一个hypothesis testing,你要先确定下来一个hypothesis,再根据这个hypothesis去收集数据,然后model要满足你收集数据的方法。拉出来文章里一个例子,比如说我有几个对照组,每个组collect data一直collect到有6个data point,和我每个组collect data两个月然后得到了正好和前一个方法一样的data,这样虽然data完全一样,但是因为data collection的方式,也就是背后的assumption不一样,所谓的p-value要用不同的方法计算。&br&&br&后面还有一些其他例子,大致上就是说hypothesis testing是与hypothesis有关的(这不废话嘛orz),很多时候类似的结论其实可以是不同的hypothesis然后就可能有不同的p-value,和正好相反的答案。比如后面那个treatment vs placebo的例子就挺有趣,有兴趣的自己看吧,太长了懒得搬运了。。。&br&&br&那么回到题主的问题,Bayesian statistics牛逼之处在哪?&br&&br&For the record, 要把bayesian和frequentist划清界限的话我是一个Bayesian,但是我还是告诉你,不牛逼,bayesian能干的frequentist几乎都能干,只不过大部分时间用bayesian干更简单,方便,直观。也就是常说的简单粗暴。。。&br&&br&当然Bayesian stat也并不是比frequentist低级,只不过方法比较统一而已,背后的理论一点都不浅显。。。扯远了,回到这个地方,为什么这里说Bayesian比Frequentist好呢?个人觉得,不是Frequentist不好,而是对于没有受过proper statistics training的人来说frequentist的东西太容易用错或者错误的解读。比如上面文章里的各种例子,黑了hypothesis testing这么大段,但是“你你你你你用错了我干嘛还要怪我不好嘛”(╯‵□′)╯︵┻━┻&br&&br&至于为什么推崇bayesian,我倒觉得写的有点无厘头了,不过就是说Bayesian的方法可以直接去估计想要的问题,然后把所有assumption都量化成了variable,有了一个generative model之后很多data collection的问题就没关系了。但是我好奇作者就这么不care如果选prior的问题,换个prior整个model不也是会变?可能实际应用大家也不care prior哪个能conjugate就用哪个,大不了就用weak prior。。。。&br&&br&【啊上面一吐槽不小心用了一些专业词汇,自行google吧这玩意都讲清楚太费劲。。】&br&&br&总之呢,这个John Kruschke大大看来是个铁杆bayesian无疑了,说的也挺实在的,也不是没有道理,统计狗从大一开始学hypothesis testing学到grad还在学还在不断犯错,怎么能指望每个系的RA们都上一门intro to stat就完全掌握处理数据的特别技巧?&br&&br&跑题千里之后拉回来一句,什么叫心理学里的“强烈的不确定性”,我觉得这里说的意思是“各种因为不太懂统计而返的错误”,为什么要用Bayesian呢,就是“不太懂这些统计也能看看书一秒脱离小白的简单粗暴统计学”。当然啦,这个说法当然是不对的,经典统计有经典统计的好处,Bayesian有Bayesian的优点,要说有什么不确定性经典统计处理不了只有Bayesian能处理还真不是这样,只不过大部分时间后者相对简单不容易犯严重错误罢了。&br&&br&至于那个拙劣的翻译,前半段什么“百人百样”完全是错误理解原文。原文我认为说的是实验结果不是repeatable,因为同一个data set因为hypothesis不一样可以得到不同的结论,但是interpret的时候不仔细对应自己的hypothesis的话就可能说错,别人按照你说的结论去重复你的计算就会发现没法reproduce。(当然那个psychology today的文章写得也不明不白的。。所以到底写这篇十大发展是想表达什么意思我也存疑)&br&&br&最后,至于“革命性”,噢哈哈哈哈哈看的那里我真的笑了,对于用Bayesian就能叫“革命性”的领域,我只能说,请放着我来!
统计专业,看到这段感觉槽点太多,简单喷一下,心理学小白,有错误还请各位大大指出。。首先我们来看看原文 :The use of Bayesian Statistics. In a December article in The New Yorker, Jonah Lehrer pointed out that some phenome…}

我要回帖

更多关于 爱情是什么 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信