2023-03-09 09:40来源:m.sf1369.com作者:宇宇
发挥市场作用同时更好发挥政府作用
市场经济中的优胜劣汰、盈亏分化和市场主体的禀赋差异以及新旧产业的兴衰更替,必然导致区域差异和社会成员财富存量及收入差距扩大,最终趋向发展不平衡甚至两极分化。这是市场经济条件下经济社会运行的必然后果,个体努力只是这种差距的影响因素而不可能是决定因素。
要警惕把市场经济等同于自由放任的市场经济。因为,自由放任的市场经济与实现全社会平衡发展和共同富裕并不兼容,这个论断符合历史逻辑、理论逻辑和实践逻辑。
因此,在充分发挥市场对资源配置的决定性作用的同时,必须更好发挥政府作用,下功夫解决好发展不平衡问题,实现市场经济与共同富裕、与全社会平衡发展相兼容。区域平衡发展和全社会共同富裕是的本质要求,也是市场经济的实践特征。没有全社会平衡发展和社会成员共同富裕,就不是,也不是市场经济。
做大做强做优国有经济和国有资本
在初级阶段,必须毫不动摇巩固和发展公有制经济,毫不动摇鼓励支持引导非公有制经济发展。
以公有制经济为主体,是实现共同富裕和经济社会平衡发展的经济基础。巩固和发展公有制经济有利于解决发展不平衡问题,有利于推进共同富裕。要坚持有利于国有资产保值增值、有利于提高国有经济竞争力、有利于放大国有资本功能的方针,推动国有企业深化改革、提高经营管理水平,加强国有资产监管,坚定不移把国有企业做强做优做大。
现阶段,必须千方百计做大做强做优国有经济和国有资本并优化其布局,要采取切实措施增强国有经济竞争力、创新力、控制力、影响力和抗风险能力。同时,大力发展农村各类集体经济,鼓励引导其快速健康发展,在发展完善市场经济过程中真正夯实平衡发展的经济基础。
深化收入分配制度改革
分配制度决定社会财富的占有方式和流动走向,是实现平衡发展和共同富裕的决定因素。我国宪法规定,国家在初级阶段,“坚持按劳分配为主体、多种分配方式并存的分配制度”。
所谓多种分配方式,是指按劳动力以外的土地、资本、技术、数据、管理、信息等生产要素的贡献进行分配。由此产生的问题是,如何才能确保“按劳分配为主体”。既然是“主体”,那就意味着劳动所得在全部所得中占据最大比例,甚至应该超过一半。然而在多要素参与分配的现实下,要确保按劳分配为主体是极其困难的。这就是说,只要任凭市场决定收入分配,按劳分配的占比就会越来越小,迟早会动摇劳动的“主体”地位,区域之间也会出现“马太效应”,差距越来越大,这与平衡发展和共同富裕背道而驰。
要坚持以按劳分配为主体,健全工资增长机制,提高最低工资标准,促进劳动报酬与劳动生产率同步提高;坚持多种分配方式并存,结合当前我国的基本国情与社会的主要矛盾,完善再分配机制,通过税收、社保、转移支付等方式,在做大“蛋糕”的基础上,合理分配“蛋糕”,扩大中等收入群体,增强社会的团结与凝聚力。
大力开辟更多就业渠道
科学技术是第一生产力,是创造价值的重要生产要素。工业革命以来,在市场经济推动下,科学技术对劳动力替代的力度、广度和深度前所未有。这一方面使人类社会的生产效率得到空前提高,社会财富潮涌般迸发,另一方面不可避免对体力劳动所得包括体力劳动岗位产生挤占,进而导致普通劳动者的收入分配占比不断下降,全社会收入分配差距不断扩大。
就业和民生直接关联,充分就业是社会稳定的基石,“稳就业”就是“保民生”。普通劳动者主要是通过实现就业来分享经济发展的成果。改革开放以来,我国劳动力市场蓬勃发展,创造了越来越多的就业岗位。在劳动力市场总体规模迅速扩大的同时,我国的居民收入也实现了快速增长。这充分说明“稳就业”对于“促民生”具有举足轻重的意义。
大数据技术常用的数据处理方式,有传统的ETL工具利用多线程处理文件的方式;有写MapReduce,有利用Hive结合其自定义函数,也可以利用Spark进行数据清洗等,每种方式都有各自的使用场景。
在实际的工作中,需要根据不同的特定场景来选择数据处理方式。
1、传统的ETL方式
传统的ETL工具比如Kettle、Talend、Informatica等,可视化操作,上手比较快,但是随着数据量上升容易导致性能出问题,可优化的空间不大。
2、Mapreduce
写Mapreduce进行数据处理,需要利用java、python等语言进行开发调试,没有可视化操作界面那么方便,在性能优化方面,常见的有在做小表跟大表关联的时候,可以先把小表放到缓存中(通过调用Mapreduce的api),另外可以通过重写Combine跟Partition的接口实现,压缩从Map到reduce中间数据处理量达到提高数据处理性能。
3、Hive
在没有出现Spark之前,Hive可谓独占鳌头,涉及离线数据的处理基本都是基于Hive来做的,Hive采用sql的方式底层基于Hadoop的Mapreduce计算框架进行数据处理,在性能优化上也不错。
4、Spark
Spark基于内存计算的准Mapreduce,在离线数据处理中,一般使用Spark sql进行数据清洗,目标文件一般是放在hdf或者nfs上,在书写sql的时候,尽量少用distinct,group by reducebykey 等之类的算子,要防止数据倾斜。