环球焦点!羊驼系列大模型和ChatGPT差多少?详细测评后,我沉默了
来源:机器之心    时间:2023-05-14 12:46:38
机器之心报道

编辑:张倩、小舟

总的来说,该测试得出的结论是:MPT 还没有准备好在现实世界中使用,而 Vicuna 对于许多任务来说是 ChatGPT (3.5) 的可行替代品。

前段时间,谷歌的一份泄密文件引发了广泛关注。在这份文件中,一位谷歌内部的研究人员表达了一个重要观点:谷歌没有护城河,OpenAI 也没有。


(资料图)

这位研究人员表示,虽然表面看起来 OpenAI 和谷歌在 AI 大模型上你追我赶,但真正的赢家未必会从这两家中产生,因为一个第三方力量正在悄悄崛起。

这个力量名叫「开源」。围绕 Meta 的 LLaMA 等开源模型,整个社区正在迅速构建与 OpenAI、谷歌大模型能力类似的模型,而且开源模型的迭代速度更快,可定制性更强,更有私密性……「当免费的、不受限制的替代品质量相当时,人们不会为受限制的模型付费。」作者写道。

这些观点在社交媒体上引起了很大争议,其中一个比较大的争议是:那些开源模型是否真的能达到和 OpenAI ChatGPT 或谷歌 Bard 等商业闭源大模型相似的水平?现阶段两个阵营还有多大差距?

为了探索这个问题,一位名叫 Marco Tulio Ribeiro 的 Medium 博主在一些复杂任务上对部分模型(Vicuna-13B、MPT-7b-Chat VS. ChatGPT 3.5)进行了测试。

其中,Vicuna-13B 是加州大学伯克利分校、卡内基梅隆大学、斯坦福大学、加州大学圣迭戈分校的研究者们提出的一个开源模型,这个模型基于 LLaMA 13B 参数量的版本构建而成,在一项由 GPT-4 打分的测试中表现十分亮眼(参见)。

MPT-7B 是 MosaicML 发布的大型语言模型,遵循 meta 的 LLaMA 模型的训练方案。MosaicML 表示,MPT-7B 与 meta 的 70 亿参数 LLaMA 模型的性能相当。

和它们对比的,自然是大语言模型标杆 ChatGPT。

Marco Tulio Ribeiro 是一位研究员,目前在微软研究院的自适应系统和交互组工作。他还是华盛顿大学的联合助理教授。这项工作由他和微软的另一位研究员 Scott Lundberg 共同完成。在测试中,他们使用了微软的 guidance 库来帮助设计 prompt。

热身:解方程

第一项任务是解简单的多项式方程,这些问题都有标准答案,比较容易评估对错。

对于指定的三个模型,测试者给出的题目是求二元一次方程「x^2+3x=0」的解。他们使用了以下 prompt:

三个模型表现如下。

ChatGPT:

equation = "x^2 + 3.0x = 0"roots = [0, -3]answer_gpt = find_roots (llm=chatgpt, equation=equation)

Vicuna:

answer_vicuna = find_roots (llm=vicuna, equation=equation)

MPT:

answer_mpt = find_roots (llm=mpt, equation=equation)

显然,正确答案应该是 [-3, 0],只有 ChatGPT 答对了(Vicuna 甚至没有按照指定的格式作答)。

在这篇文章附带的 notebook 中,测试者编写了一个函数,用于生成具有整数根的随机二次方程,根的范围在 - 20 到 20 之间,并且对每个模型运行了 20 次 prompt。三个模型的准确率结果如下:

╔═══════════╦══════════╦║   Model   ║ Accuracy ║     ╠═══════════╬══════════╬║ ChatGPT   ║   80%    ║║ Vicuna    ║    0%    ║ ║ MPT       ║    0%    ║╚═══════════╩══════════╩

在二元一次方程的测试中,虽然 GPT 做错了一些题,但 Vicuna 和 MPT 一道都没做对,经常在中间步骤中犯错(MPT 甚至经常不写中间步骤)。下面是一个 ChatGPT 错误的例子:

ChatGPT 在最后一步计算错误,(13 +- 25)/2 应该得到 [19,-6] 而不是 [19.5,-6.5]。

由于 Vicuna 和 MPT 实在不会解二元一次方程,测试者就找了一些更简单的题让他们做,比如 x-10=0。对于这些简单的方程,他们得到了以下统计结果:

╔═══════════╦══════════╦║   Model   ║ Accuracy ║     ╠═══════════╬══════════╬║ ChatGPT   ║   100%   ║║ Vicuna    ║    85%   ║ ║ MPT       ║    30%   ║╚═══════════╩══════════╩

下面是一个 MPT 答错的例子:

结论

在这个非常简单的测试中,测试者使用相同的问题、相同的 prompt 得出的结论是:ChatGPT 在准确性方面远远超过了 Vicuna 和 MPT。

任务:提取片段 + 回答会议相关的问题

这个任务更加现实,而且在会议相关的问答中,出于安全性、隐私等方面考虑,大家可能更加倾向于用开源模型,而不是将私有数据发送给 OpenAI。

以下是一段会议记录(翻译结果来自 DeepL,仅供参考):

测试者给出的第一个测试问题是:「Steven 如何看待收购一事?」,prompt 如下:

qa_attempt1 = guidance ("""{{#system~}}{{llm.default_system_prompt}}{{~/system}}{{#user~}}You will read a meeting transcript, then extract the relevant segments to answer the following question:Question: {{query}}Here is a meeting transcript:----{{transcript}}----Please answer the following question:Question: {{query}}Extract from the transcript the most relevant segments for the answer, and then answer the question.{{/user}}{{#assistant~}}{{gen "answer"}}{{~/assistant~}}""")

ChatGPT 给出了如下答案:

虽然这个回答是合理的,但 ChatGPT 并没有提取任何对话片段作为答案的支撑(因此不符合测试者设定的规范)。测试者在 notebook 中迭代了 5 个不同的 prompt,以下是一些例子:

qa_attempt3 = guidance ("""{{#system~}}{{llm.default_system_prompt}}{{~/system}}{{#user~}}You will read a meeting transcript, then extract the relevant segments to answer the following question:Question: {{query}}Here is a meeting transcript:----{{transcript}}----Based on the above, please answer the following question:Question: {{query}}Please extract from the transcript whichever conversation segments are most relevant for the answer, and then answer the question.Note that conversation segments can be of any length, e.g. including multiple conversation turns.Please extract at most 3 segments. If you need less than three segments, you can leave the rest blank.As an example of output format, here is a fictitious answer to a question about another meeting transcript.CONVERSATION SEGMENTS:Segment 1: Peter and John discuss the weather.Peter: John, how is the weather today?John: It"s raining.Segment 2: Peter insults JohnPeter: John, you are a bad person.Segment 3: BlankANSWER: Peter and John discussed the weather and Peter insulted John.{{/user}}{{#assistant~}}{{gen "answer"}}{{~/assistant~}}""")

在这个新的 prompt 中,ChatGPT 确实提取了相关的片段,但它没有遵循测试者规定的输出格式(它没有总结每个片段,也没有给出对话者的名字)。

不过,在构建出更复杂的 prompt 之后,ChatGPT 终于听懂了指示:

qa_attempt5 = guidance ("""{{#system~}}{{llm.default_system_prompt}}{{~/system}}{{#user~}}You will read a meeting transcript, then extract the relevant segments to answer the following question:Question: What were the main things that happened in the meeting?Here is a meeting transcript:----Peter: HeyJohn: HeyPeter: John, how is the weather today?John: It"s raining.Peter: That"s too bad. I was hoping to go for a walk later.John: Yeah, it"s a shame.Peter: John, you are a bad person.----Based on the above, please answer the following question:Question: {{query}}Please extract from the transcript whichever conversation segments are most relevant for the answer, and then answer the question.Note that conversation segments can be of any length, e.g. including multiple conversation turns.Please extract at most 3 segments. If you need less than three segments, you can leave the rest blank.{{/user}}{{#assistant~}}CONVERSATION SEGMENTS:Segment 1: Peter and John discuss the weather.Peter: John, how is the weather today?John: It"s raining.Segment 2: Peter insults JohnPeter: John, you are a bad person.Segment 3: BlankANSWER: Peter and John discussed the weather and Peter insulted John.{{~/assistant~}}{{#user~}}You will read a meeting transcript, then extract the relevant segments to answer the following question:Question: {{query}}Here is a meeting transcript:----{{transcript}}----Based on the above, please answer the following question:Question: {{query}}Please extract from the transcript whichever conversation segments are most relevant for the answer, and then answer the question.Note that conversation segments can be of any length, e.g. including multiple conversation turns.Please extract at most 3 segments. If you need less than three segments, you can leave the rest blank.{{~/user}}{{#assistant~}}{{gen "answer"}}{{~/assistant~}}""")

测试者表示,他们之所以要多次迭代 prompt,是因为 OpenAI API 不允许他们做部分输出补全(即他们不能指定 AI 助手如何开始回答),因此他们很难引导输出。

相反,如果使用一个开源模型,他们就可以更清楚地指导输出,迫使模型使用他们规定的结构。

新一轮测试使用如下 prompt:

qa_guided = guidance ("""{{#system~}}{{llm.default_system_prompt}}{{~/system}}{{#user~}}You will read a meeting transcript, then extract the relevant segments to answer the following question:Question: {{query}}----{{transcript}}----Based on the above, please answer the following question:Question: {{query}}Please extract the three segment from the transcript that are the most relevant for the answer, and then answer the question.Note that conversation segments can be of any length, e.g. including multiple conversation turns. If you need less than three segments, you can leave the rest blank.As an example of output format, here is a fictitious answer to a question about another meeting transcript:CONVERSATION SEGMENTS:Segment 1: Peter and John discuss the weather.Peter: John, how is the weather today?John: It"s raining.Segment 2: Peter insults JohnPeter: John, you are a bad person.Segment 3: BlankANSWER: Peter and John discussed the weather and Peter insulted John.{{/user}}{{#assistant~}}CONVERSATION SEGMENTS:Segment 1: {{gen"segment1"}}Segment 2: {{gen"segment2"}}Segment 3: {{gen"segment3"}}ANSWER: {{gen "answer"}}{{~/assistant~}}""")

如果用 Vicuna 运行上述 prompt,他们第一次就会得到正确的格式,而且格式总能保持正确:

当然,也可以在 MPT 上运行相同的 prompt:

虽然 MPT 遵循了格式要求,但它没有针对给定的会议资料回答问题,而是从格式示例中提取了片段。这显然是不行的。

接下来比较 ChatGPT 和 Vicuna。

测试者给出的问题是「谁想卖掉公司?」两个模型看起来答得都不错。

以下是 ChatGPT 的回答:

以下是 Vicuna 的回答:

接下来,测试者换了一段材料。新材料是马斯克和记者的一段对话:

测试者提出的问题是:「Elon Musk 有没有侮辱(insult)记者?」

ChatGPT 给出的答案是:

Vicuna 给出的答案是:

Vicuna 给出了正确的格式,甚至提取的片段也是对的。但令人意外的是,它最后还是给出了错误的答案,即「Elon musk does not accuse him of lying or insult him in any way」。

测试者还进行了其他问答测试,得出的结论是:Vicuna 在大多数问题上与 ChatGPT 相当,但比 ChatGPT 更经常答错。

用 bash 完成任务

测试者尝试让几个 LLM 迭代使用 bash shell 来解决一些问题。每当模型发出命令,测试者会运行这些命令并将输出插入到 prompt 中,迭代进行这个过程,直到任务完成。

ChatGPT 的 prompt 如下所示:

terminal = guidance ("""{{#system~}}{{llm.default_system_prompt}}{{~/system}}{{#user~}}Please complete the following task:Task: list the files in the current directoryYou can give me one bash command to run at a time, using the syntax:COMMAND: commandI will run the commands on my terminal, and paste the output back to you. Once you are done with the task, please type DONE.{{/user}}{{#assistant~}}COMMAND: ls{{~/assistant~}}{{#user~}}Output: guidance project{{/user}}{{#assistant~}}The files or folders in the current directory are:- guidance- projectDONE{{~/assistant~}}{{#user~}}Please complete the following task:Task: {{task}}You can give me one bash command to run at a time, using the syntax:COMMAND: commandI will run the commands on my terminal, and paste the output back to you. Once you are done with the task, please type DONE.{{/user}}{{#geneach "commands" stop=False}}{{#assistant~}}{{gen "this.command"}}{{~/assistant~}}{{~#user~}}Output: {{shell this.command)}}{{~/user~}}{{/geneach}}""")

测试者在~/work/project 中创建了一个虚拟存储库,其中包含文件 license.txt,但不是标准的 LICENSE 文件名。

然后测试者尝试在不与 ChatGPT 沟通的情况下,看它是否能完成任务 ——「找出位于~/work/project 中的开源项目正在使用的 license」(Find out what license the open source project located in ~/work/project is using)。

ChatGPT 遵循一个非常自然的顺序,并解决了这个问题。

对于开源模型,测试者编写了一个更简单的(引导式)prompt,其中包含一系列命令输出:

guided_terminal = guidance ("""{{#system~}}{{llm.default_system_prompt}}{{~/system}}{{#user~}}Please complete the following task:Task: list the files in the current directoryYou can run bash commands using the syntax:COMMAND: commandOUTPUT: outputOnce you are done with the task, use the COMMAND: DONE.{{/user}}{{#assistant~}}COMMAND: lsOUTPUT: guidance projectCOMMAND: DONE {{~/assistant~}}{{#user~}}Please complete the following task:Task: {{task}}You can run bash commands using the syntax:COMMAND: commandOUTPUT: outputOnce you are done with the task, use the COMMAND: DONE.{{~/user}}{{#assistant~}}{{#geneach "commands" stop=False ~}}COMMAND: {{gen "this.command" stop="\n"}}OUTPUT: {{shell this.command)}}{{~/geneach}}{{~/assistant~}}""")

我们来看一下 Vicuna 和 MPT 执行该任务的情况。

Vicuna:

MPT:

在一个有趣的转折中,Vicuna 无法解决这个任务,但 MPT 却成功了。除了保密性之外,开源模型在这里有一个显著的优势:整个 prompt 被作为一个输入传递给一个 LLM 模型(测试者甚至通过不让它生成像 COMMAND 这样的输出结构 token 来加速它)。

相比之下,他们必须为每个命令重新调用 ChatGPT,这更慢,开销也更大。

接下来,他们又尝试了一个不同的命令:「在~/work/guidance 目录下找到当前未被 git 跟踪的所有 jupyter notebook 文件」

以下是 ChatGPT 的回答:

测试者再次遇到一个问题:ChatGPT 没有遵循他们指定的输出结构(这样就使得它无法在无人干预的情况下在程序内使用)。该程序只是执行命令,因此在上面最后一条 ChatGPT 信息之后就停止了。

测试者怀疑空输出会导致 ChatGPT 关闭,因此他们通过在没有输出时更改信息来解决这个特殊问题。然而,他们无法解决「无法强迫 ChatGPT 遵循指定的输出结构」这一普遍问题。

在做了这个小小的修改后,ChatGPT 就能解决这个问题:让我们看看 Vicuna 是怎么做的:

Vicuna 遵循了输出结构,但不幸的是,它运行了错误的命令来完成任务。MPT 反复调用 git status,所以它也失败了。

测试者还对其他各种指令运行了这些程序,发现 ChatGPT 几乎总是能产生正确的指令序列,但有时并不遵循指定的格式(因此需要人工干预)。此处开源模型的效果不是很好(或许可以通过更多的 prompt 工程来改进它们,但它们在大多数较难的指令上都失败了)。

归纳总结

测试者还尝试了一些其他任务,包括文本摘要、问题回答、创意生成和 toy 字符串操作,评估了几种模型的准确性。以下是主要的评估结果:

任务质量:对于每项任务,ChatGPT (3.5) 都比 Vicuna 强,而 MPT 几乎在所有任务上都表现不佳,这甚至让测试团队怀疑自己的使用方法存在问题。值得注意的是,Vicuna 的性能通常接近 ChatGPT。

易用性:ChatGPT 很难遵循指定的输出格式,因此难以在程序中使用它,需要为输出编写正则表达式解析器。相比之下,能够指定输出结构是开源模型的一个显著优势,以至于有时 Vicuna 比 ChatGPT 更易用,即使它在任务性能方面更差一些。

效率:本地部署模型意味着我们可以在单次 LLM 运行中解决任务(guidance 在程序执行时保持 LLM 状态),速度更快,成本更低。当任何子步骤涉及调用其他 API 或函数(例如搜索、终端等)时尤其如此,这总是需要对 OpenAI API 进行新调用。guidance 还通过不让模型生成输出结构标记来加速生成,这有时会产生很大的不同。

总的来说,该测试得出的结论是:MPT 还没有准备好在现实世界中使用,而 Vicuna 对于许多任务来说是 ChatGPT (3.5) 的可行替代品。目前这些发现仅适用于该测试尝试的任务和输入(或 prompt 类型),该测试只是一个初步探索,而不是正式评估。

更多结果参见 notebook:https://github.com/microsoft/guidance/blob/main/notebooks/chatgpt_vs_open_source_on_harder_tasks.ipynb

参考链接:https://medium.com/@marcotcr/exploring-chatgpt-vs-open-source-models-on-slightly-harder-tasks-aa0395c31610

©THE END

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

X 关闭

推荐内容

  • 环球焦点!羊驼系列大模型和ChatGPT差多少?详细测评后,我沉默了
  • 全球热点!德班世乒赛突发意外,陈梦王楚钦摊上麻烦,刘国梁或出重拳
  • 世界即时看!西十高铁湖北段首座桥梁合龙
  • 高质量发展调研行 | 上海张江全链条发力营造更优企业创新发展环境
  • 世界快看:三大便民管理来了!不扣车、不禁行,电动车、老年代步车合法上路
  • 厦门出台《医疗美容广告合规指引》 五种医疗美容广告禁止发布 天天快消息
  • 维金斯:希望伊戈达拉继续打球 他的生涯足够精彩&是一位传奇
  • 世界速递!金属氧化物一定是碱性氧化物么 金属氧化物一定是碱性氧化物
  • 佛山甘肃商会走进红点公司-世界滚动
  • 江苏如皋:三个便民“服务圈” 圈出民生“大幸福”-环球热点评
  • 热点!40岁的大龄剩男结局(四十岁大龄剩女的结局)
  • 我国万吨级海上油气平台今天对接成功-世界热文
  • 排名榜首仍要低调,吴金贵:板凳厚度跟冠军队还是有差距
  • 环球新动态:化学资料高中怎么学书推荐教辅推荐
  • 库里谈球队未来:下赛季依然是争冠球队_环球聚焦
  • 公司债、企业债执业质量评价将迎统一标准 今日关注
  • 全球关注:蓝精灵之歌的歌手是谁 蓝精灵之歌(蓝精灵)歌词
  • 历史首次!北上广深人口集体减少,什么信号?
  • 浦东这所高校的400位护生在传光授帽中“成人”
  • 天天播报:2024年湖北工程学院专升本招生简章
  • 观速讯丨国羽单打名将、奥运冠军谌龙已正式退役
  • 加速下跌下周迎接长阳
  • 三幻魔卡组构建-三幻魔
  • 煞僧长什么样_煞僧
  • 焦点访谈: “小”商品“玩”转大市场 全球视点
  • 电锯侠什么时候出 公测上线时间预告
  • 仁医第二季日剧_仁医第二季|焦点简讯
  • 选择大城市逐梦还是小城市安稳-天天新资讯
  • 净资产利润率为0.5%_净资产利润率
  • 【天天聚看点】股票行情快报:宇邦新材(301266)5月12日主力资金净卖出360.40万元
  • 神探方天谬在线观看高清_神探方天谬
  • 当前头条:西游记连环画最好版本_西游记连环画电子版
  • 浙江队总决赛再遭打击 核心吴前肋骨骨折-世界今日报
  • 网红直播翻车!直播半天没发现假胸下垂脱落到肚脐眼,辣眼睛! 世界焦点
  • 火锅统一辣度标准?四川火锅协会回应是这样的
  • Anchor Health合资企业收购特拉华州医疗物业
  • 锐明技术(002970.SZ):若干股东拟减持合计不超6.08%股份-天天新视野
  • 【世界报资讯】河南财政金融学院顺利通过2022年本科毕业论文(设计)抽检
  • 华虹半导体:一季度业绩增长,股票却跌出今年最低价,机构纷纷下调目标价
  • 广东人不买这些车的理由是什么?|世界通讯
  • 极客产品大众化 纵维立方用桌面级 3D 打印机攻略海外市场_消息
  • 初一学生校服收费2300元价格_初一学生校服收费2300元|焦点热闻
  • 环球热推荐:空港股份: 空港股份关于公司高级管理人员辞职的公告
  • 魏广_关于魏广简述|环球快看
  • 美国诺福克南方铁路公司计划赔偿受“毒火车”脱轨事故影响的房主
  • 京东集团第一季度净营收2,430亿元人民币,市场预估2,404.9亿元人民币。 今日热搜
  • Win10重启老是蓝屏收集错误信息怎么办?|焦点关注
  • 2023工程造价咨询行业市场发展环境及投资分析-环球速讯
  • 全国路网交通量增长 国省道货车交通量同比增长34% 环球视讯
  • 沙特阿美:我们的目标是到2030年生产多达1100万吨蓝氨(蓝色氢的载体),这一目标保持不变_每日播报
  • 世界视点!半月谈丨国产农机不敌“洋农机”
  • 被裁定性侵第二天,特朗普现身拉选票|当前最新
  • “孔子家乡 好客山东”西班牙文旅推介会在马德里举行-世界最新
  • 我理解的房地产软着陆是:房价持续以平均每年下跌不超过5%的速度缓慢下跌
  • 全球观点:市监局回应辛巴带货致榴莲价格上涨:没证据证明他垄断市场
  • 全球讯息:擀面皮,松软透亮又筋道,比凉皮简单还受欢迎,张张喷香吃不够
  • 微动态丨官宣:4月汽车销量榜正式发布,比亚迪宋登顶,轩逸第3,CR-V落榜
  • 敦煌壁画特点介绍_敦煌壁画的特点是什么|环球新要闻
  • 环球消息!湖南裕能:5月10日融资买入2110.67万元,融资融券余额3.17亿元
  • 警情通报|海口警方通报“两男子大闹酒店”事件
  • 天天看点:索菲亚:5月10日融资买入389.69万元,融资融券余额1.67亿元
  • 约2.25亿/年!青岛市城阳区城市空间管理综合服务(城区道路保洁和绿化养护)项目中开标!
  • 港股异动 | 世纪睿科(01450)大涨逾21% 拟更名为“交个朋友控股有限公司” 即时
  • 【播资讯】保罗确定无缘太阳生死战 艾顿肋骨挫伤或缺阵
  • 苹果iOS 16.5准正式版已推送,Siri更加智能,修复了3个问题 全球即时看
  • 世界视点!长安基金管理有限公司关于增加腾安基金销售(深圳)有限公司为旗下部分基金销售机构的公告
  • 数码宝贝20周年剧场版在线观看资源_数码宝贝20周年剧场版
  • 天舟六号货运飞船与空间站组合体完成交会对接|世界速看
  • 微速讯:高海拔宇宙线观测站通过国家验收“拉索”探寻高能宇宙线起源
  • 焦点热议:火人节_关于火人节介绍
  • 报告:苹果用户换机周期延长,iPhone 平均售价创新高
  • 深圳暴雨后一地现“落汤猫”,男子救助发现竟是国家二级保护动物
  • 环球关注:迫不及待!速通玩家对《王国之泪》新机制很感兴趣
  • 全球资讯:云从科技将发布大模型产品!公司目前依旧“未挣钱”
  • 英特科技(301399.SZ)IPO定价43.99元/股 将于5月12日开启申购 新要闻
  • 世界微动态丨固态硬盘开机时间突然变长(开机时间突然变长)
  • 环球报道:“西直门三太子”,你也太费玩具了!
  • 多个重大项目将受益!钱塘获一季度浙江省投资“赛马”激励 环球快播
  • 甘肃渭源多点发力“强县域” 全球新动态
  • 5月10日鲁增化工冰晶石报价平稳_报道
  • 动态:寄信人地址可以不写吗_寄信人
  • 武俭(关于武俭介绍) 环球热资讯
  • 侠盗猎车手4秘籍坦克_侠盗猎车手5秘籍坦克
  • 国家林草局:以下一代互联网技术助力旗舰物种保护
  • 环球热文:新版“黄蓉”一亮相,就把影视圈的“遮羞布”,扒得一干二净
  • 山西孝义:发生一起因偷排不明液体致三人中毒死亡刑事案件,两名重点嫌疑人被控制
  • 计算机专业实习报告3000字(学计算机什么专业好)
  • 山西孝义发生一起因偷排不明液体致三人中毒死亡案,官方通报 全球热点
  • 广西14市一季度GDP出炉!看看桂林排在哪里?
  • 2023中级会计经济法答疑精华:物权效力-世界微动态
  • 【数字铜陵】铜陵市福建商会:服务会员 助力招商
  • 封路通告!涉及鸡西域内这条高速
  • 2023年雨伞市场投资前景分析:全球市场规模预计将达到 11 亿美元_世界播报
  • 陕西长青自然保护区频频拍到野生大熊猫活动影像|天天即时看
  • 环球快看点丨高盛:全球家族办公室未来12个月计划增配风险资产
  • 快讯:湖北宜化涨停 报于13.74元
  • 执行案款分配再起纠纷 连环诉讼案背后套路深
  • 女子为挣快钱6年7次偷渡缅北
  • 世界即时:禾望电气:5月9日融资买入300.58万元,融资融券余额1.51亿元
  • roundup函数怎么用_roundup函数是什么意思
  • 精彩推荐

    Copyright ©  2015-2022 太平洋卫浴网版权所有  备案号:豫ICP备2022016495号-17   联系邮箱:93 96 74 66 9@qq.com