首页 > 滚动 > 正文

证监会:资本市场不受疫情影响;港交所首次云敲锣

2020-04-07 15:22:02来源:亿欧网  

政策走向

证监会:资本市场改革开放不会受疫情影响

3月23日讯,证监会副主席李超在国新办新闻发布会上表示,资本市场改革开放不会受疫情影响。中国资本市场从建立就是改革开放的产物,有30年的历程,可以看到,在改革开放工作力度较大、成效明显的阶段,资本市场就会更加稳定,功能就会发挥的更好,在改革开放力度不大时资本市场就会出现问题,有其内在原因和动力,如何更好的发挥资本市场功能,面对一些薄弱环节,需要继续加大改革开放力度,这是原因所在。

光大证券:长线资金可逐步进场,短线仍应等待

3月23日讯,光大策略黄凯松团队最新观点认为,当前A股估值所隐含增速预期已跌至4.5%以下,在恐慌进入下半场后,长线资金现在可逐步进场,价值投资时机已到,短线资金仍应等待右侧信号。配置上,周期中关注建材、建筑等基建产业链行业;TMT回调后可受益无接触经济的游戏和云计算,以及肩负新基建重任的5G;消费可关注汽车等逆周期调节抓手,以及价值股的中长期机会;市场波动较大可关注高股息板块。

游资助推可转债市场上演疯狂行情,交易所迅速反馈盯紧重点对象

3月23日讯,可转债疯狂的行情还在持续,3月20日,再有凯发转债、英联转债等几只可转债出现了令人咂舌的暴涨,单日上涨幅度超过30%,而另一边同时也出现了数只跌幅巨大的公司,如新天转债、通光转债和泰晶转债的跌幅都超过了20%。上交所表示,将可转债交易情况纳入重点监控,对影响市场正常交易秩序、误导投资者交易决策的异常交易行为及时实施自律监管。深交所则表示,对近期涨跌幅和换手率异常的新天转债、横河转债、模塑转债持续进行重点监控,并及时采取监管措施。

业内人士:充电桩迎来千亿元市场机遇

3月23日讯,据中证报,近日,新能源汽车充电桩被纳入新基建行列。据统计,至2030年,我国将存在6300万台的充电桩缺口。业内人士指出,随着未来5年我国新能源汽车保有量大幅增加,充电桩需求量巨大,市场空间在千亿元级别。充电设备需求将显著增加,充电桩行业受益,也将给技术领先、运营积累深厚的企业带来新的机遇。

港交所上市仪式采用“云敲锣”

3月22日讯,港交所公布明日起将推出全新“云敲锣”的网络上市仪式,首次以网络视频形式替代金融大会堂现场上市仪式。由世界知名结构生物学家施一公教授与崔霁松博士联合创立的生物医药企业诺诚健华(09969.HK)成为首家在港股市场采用“云敲锣”上市的公司。

项目动态

截至发稿前,科创板申报企业214家;进入“已问询”阶段企业32家;进入“提交注册”阶段企业14家;“注册结果”企业101家。

明星公司

高瓴资本近期密集布局医疗行业

3月22日讯,据梳理,高瓴资本近期密集布局生物医药及医疗器械领域。3月6日,高瓴资本增持微创医疗4773.4万股,每股作价13.51港元,完成后持股比例为6.61%。此前,高瓴资本还包揽了医药外包企业凯莱英的非公开发行股份。2月15日,美国证券委员会公布高瓴资本美股第四季度持仓数据。在高瓴资本持仓的全部54家公司中,生物制药公司占据25席。

卓易信息:尚无在江苏省外建立数据中心的明确计划

3月22日讯,此前公司称拟在经营范围内增加“第一类增值电信业务”,卓易信息发布补充公告称,公司目前该业务产能利用率约60%,收入占主营业务收入比重约5%,公司尚无在江苏省外建立数据中心的明确计划。 为取得全国范围的互联网数据中心业务资质,公司资质申请尚需履行工商部门登记和行业主管部门审批等外部程序,业务资质的取得尚存在不确定性。

特斯拉将改造弗里蒙特生产线,提升Model Y产量

3月22日讯,界面新闻援引外媒消息,特斯拉计划为弗里蒙特工厂进行生产线改造,以达到更优化的产能水平。据了解,此次的生产线改造目的在于提升Model Y的产量。小财注:由于疫情原因,特斯拉弗里蒙特工厂将于3月24日关闭。

谷歌旗下Waymo暂停凤凰城、底特律所有驾驶业务

3月22日讯,DoNews援引外媒报道,日前因新冠病毒疫情的大流行,谷歌旗下自动驾驶技术公司Waymo暂停了在凤凰城和底特律的所有自动驾驶驾驶业务。据相关内部文件显示,周三晚上至4月7日,所有驾驶操作都暂停,将于4月8日早上5:30恢复工作。

科技前瞻

英特尔和康奈尔大学的研究者宣布神经形态芯片有了“嗅觉”功能

近日,来自英特尔和康奈尔大学的研究者宣布,团队已经在神经形态芯片 Loihi 上成功设计了基于大脑嗅觉电路的算法,实现了在线学习和强记忆力能力。这项研究发表在最新一期自然杂志子刊上《Nature Machine Intelligence》上,并成为封面文章。

“瘦身成功”的ALBERT,能取代BERT吗?

BERT模型是大家比较所熟知的。2018年由谷歌提出,训练的语料库规模非常庞大,包含33亿个词语。模型的创新点集中在了预训练过程,采用Masked LM和Next Sentence Prediction两种方法,分别捕捉词语和句子级别的表示。BERT的出现,彻底改变了预训练产生词向量和下游具体NLP任务的关系。

时隔1年后,谷歌又提出ALBERT,也被称作“lite-BERT”,骨干网络和BERT相似,采用的依旧是 Transformer 编码器,激活函数也是GELU。其最大的成功,就在于参数量比BERT少了80%,同时还取得了更好的结果。与BERT相比的改进,主要包括嵌入向量参数化的因式分解、跨层参数共享、句间连贯性损失采用SOP,以及移除了dropout。

责任编辑:hnmd003