财经热点-"696969c大但人文艺术作品"-又一696969c大但人文艺术作品颗芯片,挑战GPU_ZAKER新闻

696969c大但人文艺术作品又一696969c大但人文艺术作品颗芯片,挑战GPU_ZAKER新闻

696969c大但人文艺术作品又一696969c大但人文艺术作品颗芯片,挑战GPU_ZAKER新闻

又一696969c大但人文艺术作品颗芯片,挑战GPU_ZAKER新闻

8月13日,贵州榕江全国美食足球友谊赛正式开启,中国多地的球队以美食为媒进行足球交流赛。本次比赛按季进行,每支球队只打一场友谊赛,比赛时间为2023年8月13日至10月28日,共19场比赛。(记者袁超)

摘要对于一个 30 亿参数的 LLM,一个带有 16 个 IBM AIU NorthPole 处理器的研究原型推理设备提供了巨大的 28,356token/ 秒的系统吞吐量和低于 1 ms /token ( 每用户 ) 延迟,而 16 个 NorthPole 卡在一个紧凑的 2U 外形上仅消耗 672 W。专注于低延迟和高能效,当 NorthPole ( 12 nm ) 与一套 GPU ( 7 / 5 / 4 nm ) 在各种功耗下进行比较时,在最低的 GPU 延迟下,NorthPole 提供 72.7 个更好的能效指标 ( token/s/ W ) ,同时提供更好的延迟。介绍大型语言模型 ( LLMs ) 已经在不同的 AI 任务中取得了显著的性能基准,例如通过提供代码建议来协助编程,在标准化测试中表现出色,以及帮助文章,博客,图像和视频的内容创建。在 LLMs 的大规模部署中,特别是在人工智能的大规模部署中,出现了两个主要且相互冲突的挑战,即:能源消耗和响应延迟。首先,由于 LLM 在训练和推理方面都需要大量的能源资源,因此需要一个可持续的未来计算基础设施来实现其高效和广泛的部署。随着数据中心碳足迹的扩大,以及它们越来越受到能源限制,数据中心的能源效率变得越来越重要。根据世界经济论坛的报告:" 目前,数据中心环境碳足迹主要分成两部分:训练占 20%,推理占 80%。随着人工智能模型在不同领域的发展,对推理及其环境足迹的需求将会升级。"其次,许多应用程序,如互动对话和自主工作流,需要非常低的延迟。在给定计算架构内,降低延迟可以通过降低吞吐量来实现,但这会导致能效下降。借用一句经典的系统格言进行改述:" 吞吐量问题可以通过资金解决,而延迟问题则更为复杂,因为光速是固定的。"(改述自 [ 10 ] ,将 " 带宽 " 替换为 " 吞吐量 "。)GPU 可以通过使用较小的批量大小来实现更低的延迟,但代价是吞吐量和能效的下降。此外,GPU 分片通过在多个 GPU 上使用数据并行性来减少延迟,但同样牺牲了能效。无论是否分片,GPU 似乎都遇到了延迟下限的硬性限制。GPU 在能效与延迟之间的权衡如图 1 所示。图 1:NorthPole(12 nm)在能量和系统延迟指标上相对于当前最先进的 GPU(7 / 5 / 4 nm)的性能,其中系统延迟是每个用户所经历的总延迟。在最低的 GPU 延迟(H100,点 P2)时,NorthPole 提供了 72.7 倍的更好能效指标(tokens / second / W)。在最佳的 GPU 能效指标(L4,点 P1)时,NorthPole 则提供了 46.9 倍更低的延迟。因此,本文所探讨的一个关键研究问题是如何同时实现低延迟与高能效这两个相互冲突的目标。NorthPole 是一个推理加速器芯片和软件生态系统,从第一性原理共同设计,为神经网络推理提供卓越的效率。尽管 NorthPole 并不是专门为 LLM 设计的,但令人惊讶的是,本文证明了新型 NorthPole 架构可以实现低延迟、高能效的 LLM 推理 ( 图 1、图 2 和表 1 ) 。表 I:性能测量结果测量了 NorthPole 和 GPU 系统的性能,按每卡计算。对于每个指标,# 表示越低越好,而 " 表示越高越好。对于 NorthPole 16 卡设备,功耗按每卡测量,总系统吞吐量按 16 张卡进行划分。NorthPole 延迟通过所有 16 张卡进行测量。P1、P2、P3、P4 分别指代图 1 和图 2 中标记的点,表示最高 GPU 能效指标、最低整体 GPU 延迟、最高 GPU 空间指标和最低能效 GPU 延迟。本文的主要研究结果如下:对于一个参数量为 30 亿的大型语言模型(LLM),其模型结构源自 IBM Granite-8B-Code-Base 模型,并与 Llama 3 8B 和 Mistral 7B [ 14 ] 保持一致,本文展示了一种配备 16 个 NorthPole 处理器的研究原型推理设备。在绝对性能方面,该设备提供 28,356 tokens/sec 的系统吞吐量,单用户延迟低于 1 毫秒,同时在 2U 机型下,16 个 NorthPole 卡的功耗为 672 瓦。在相对性能方面,将 12 纳米的 NorthPole 与一系列 GPU(分别为 7 / 5 / 5 / 4 纳米的 A100 / L4 / L40S / H100)在不同功耗下进行比较,可以从图 2 ( a ) 和图 2 ( c ) 中看出:在最低的 GPU 延迟(点 P2)时,NorthPole 提供了 72.7 倍更好的能效指标(tokens / second / W)和 15.9 倍更好的空间指标(tokens / second / transistor),同时延迟仍低于 2.5 倍;在最佳 GPU 能效指标(点 P1)时,NorthPole 提供了 46.9 倍更低的延迟和 2.1 倍更好的空间指标,同时仍提供 2.2 倍更好的能效指标;在最佳 GPU 空间指标(点 P3)时,NorthPole 提供了 20.3 倍更低的延迟和 5.3 倍更好的能效指标,同时仍提供 1.4 倍更好的空间指标。特别是,当将 12 纳米的 NorthPole 与 5 纳米的 L4 GPU 进行可比功耗比较时,从图 2 ( e ) 中可以看出,在最高的 L4 吞吐量(低于 50 毫秒每 token,点 P1)时,NorthPole 提供了 46.9 倍更低的延迟,同时吞吐量提高了 1.3 倍;而在最低的 L4 延迟(点 P4)时,NorthPole 提供了 36.0 倍更高的吞吐量(tokens / second / card),同时延迟仍低于 5.1 倍。图 2: ( a ) – ( d ) 面板显示了 12 纳米的 NorthPole 在能效、空间和系统延迟指标上相对于当前最先进的 GPU(7 / 5 / 4 纳米)的性能,其中系统延迟是每个用户所经历的总延迟。面板 ( a ) 与图 1 相同,增加了点 P3 的标注。面板 ( a ) 和 ( c ) 使用单个 GPU,而面板 ( b ) 和 ( d ) 使用分片技术,这可能降低延迟,但仅以牺牲能效和空间效率为代价。在最低的 GPU 延迟(H100,点 P2)时,NorthPole 提供了 72.7 倍更好的能效指标(tokens / second / W)和 15.9 倍更好的空间指标(tokens / second / transistor),同时延迟仍低于 2.5 倍;在最佳 GPU 能效指标(L4,点 P1)时,NorthPole 提供了 46.9 倍更低的延迟和 2.1 倍更好的空间指标,同时仍提供 2.2 倍更好的能效指标;在最佳 GPU 空间指标(A100,点 P3)时,NorthPole 提供了 20.3 倍更低的延迟和 5.3 倍更好的能效指标,同时仍提供 1.4 倍更好的空间指标。面板 ( e ) 显示了 12 纳米的 NorthPole 在吞吐量(tokens / second / card)和系统延迟指标上相对于 5 纳米的 L4 GPU 的性能。在最低的 L4 延迟(点 P4)时,NorthPole 提供了 36.0 倍更高的吞吐量;在最高的 L4 吞吐量(低于 50 毫秒每 token,点 P1)时,NorthPole 提供了 46.9 倍更低的延迟。用于计算每个能效指标的 GPU 功耗见表 I。由于没有可用的仪器来测量不同批量大小的实际功耗,因此对所有批量大小使用相同的功率,这可能会低估能效指标,但定性的结果仍然成立。NorthPole 架构如图 3 所示,NorthPole 处理器采用 12 纳米工艺技术制造,拥有 220 亿个晶体管,面积为 795 平方毫米。其架构受到大脑的启发,经过针对硅的优化,源于十个互补的设计公理,涵盖计算、存储、通信和控制,使 NorthPole 在标准 AI 推理任务中显著超越其他架构,即使是与更先进工艺技术制造的处理器相比也表现优异。有关 NorthPole 架构的详细公理,请参见 [ 11 ] , [ 12 ] 。简而言之,NorthPole 将 256 个模块化核心排列在 16×16 的二维阵列中。每个核心包含一个向量 - 矩阵乘法器(VMM),在 INT8、INT4 和 INT2 精度下,每个核心每个周期分别执行 2048、4096 和 8192 次操作。核心计算还包括一个 4 路、32 切片的 FP16 向量单元和一个 32 切片的激活函数单元。核心阵列总共有 192 MB 的 SRAM,每个核心配备 0.75 MB 的 SRAM。片上存储器与计算单元和控制逻辑紧密耦合,核心存储器与计算之间的总带宽为 13 TB/s。此外,每个核心都有 4096 根导线在水平和垂直方向交叉,用于通过四个专用片上网络(NoCs)传递参数、指令、激活值和部分和。为了防止停顿,片上帧缓冲区配备 32 MB 的 SRAM,将输入和输出数据的片外通信与核心阵列的片上计算解耦。图 3:NorthPole 处理器:硅片(左),裸片(中),封装模块(右)。设备NorthPole 已经在一个 PCIe Gen3 × 8 卡中进行了原型设计,如图 4 所示,其中 16 个卡安装在一台现成的 2U 服务器中,组成了一个研究原型推理设备,如图 5 所示。该服务器包含两颗 Intel Xeon Gold 6438M 处理器,每颗处理器具有 32 个核心和 60 MB 缓存,主频为 2.2 GHz。系统还配备了 512 GB 的 4800 MHz DDR5 内存。每个服务器处理器连接有两条 PCIe Gen5 × 16 总线,提供总共 256 GB/s 的 PCIe 带宽(双向)。这四条总线通过 PCIe 桥接器扩展至系统的 16 个 PCIe 插槽,每个插槽上都安装了一个 NorthPole 卡。这 16 个 NorthPole 卡最大使用可用的 256 GB/s PCIe 带宽的一半。图 4:NorthPole PCIe 卡。图 5:研究原型设备的分解视图,展示了 16 个 NorthPole PCIe 卡的安装。NorthPole 卡可以通过标准的 PCIe 端点模型与主机进行通信,或者通过每个卡上的附加硬件功能直接、更加高效地彼此通信。该系统运行 Red Hat Enterprise 8.9,NorthPole 使用内置的 VFIO 内核驱动,以便用户空间的软件能够管理硬件。系统使用 IOMMU 进行地址转换管理,并启用设备隔离和虚拟化等安全功能,以便使用虚拟机或容器技术运行应用程序。每个 NorthPole 卡通过驻留在每个卡上的 DMA 引擎接收和传输数据。这些 DMA 引擎独立工作,可以以多种方式同时接收和传输张量。第一种方法是标准的 PCIe 端点模型,主机程序通过 DMA 引擎从主机内存中读取输入,并在计算完成后将张量写回主机内存。第二种方法利用每个卡上的附加硬件功能,使 NorthPole 卡可以通过 PCIe 直接相互通信,而无需进行主机内存之间的传输或在运行时进行额外的软件管理。通过直接的 NorthPole 间通信,可以使更大的模型跨越多个 NorthPole 芯片,同时减少通信延迟和由纯软件管理系统带来的开销。将 LLMs 映射到 NorthPole 设备映射 LLMs 的策略,如图 6 所示,受到了三个关键观察的启发。首先,对于足够大的模型,整个变换器层可以使用 INT4 格式的权重、激活值和 KV 缓存完全适配在单个 NorthPole 芯片的内存中("w4a4"),而输出层则可以适配在两个芯片上。其次,如果权重和 KV 缓存完全驻留在芯片上,运行时只需在层间传输小型嵌入张量,这在 PCIe Gen3 × 8 的带宽范围内。第三,可以通过在现成服务器中安装 16 个 NorthPole PCIe 卡,轻松组装原型 NorthPole 设备。这暗示了一种策略,将每个变换器层映射到各自的 NorthPole 卡上,采用 GPipe 风格的流水线并行性,并将输出层跨两个 NorthPole 卡拆分,使用张量并行性,通过 PCIe Gen3 × 8 将层之间的嵌入张量发送。在推理过程中,一个用户请求的小批量(例如 N 个请求)被分成 M 个相等的微批量,并通过 16 个 NorthPole 卡进行流水线处理。虽然流水线并行性已在 LLMs 训练中得到利用(没有延迟限制),但在推理中的使用受限于减少每个流水线阶段的空闲时间或流水线气泡所需的大小批量。例如,有研究发现,高效训练要求微批量数 M 大约是流水线阶段数的四倍。小批量大小 N 受到以下因素的限制:(a)系统所需的每个 token 延迟,以及(b)用于存储整个小批量的 KV 缓存的可用内存。低延迟计算和 13 TB/s 的片上内存带宽使 NorthPole 能够实现极低的每个 token 延迟,因此选择 N 时的限制因素是用于在芯片上存储整个 KV 缓存的内存。此外,我们发现微批量数 M 等于流水线阶段数足以使流水线空闲时间可忽略不计。在本文报告的实验中,我们选择了 N = 28 的小批量大小,分为 M = 14 个相等的微批量,从而使每个 NorthPole 卡计算的微批量大小为 2。我们在如此小的批量大小下进行高效计算的架构设计选择是实现图 1 和表 I 中所示效率的关键。LLM 模型与训练方法ALLM 模型用于测试我们系统的模型基于开源的 IBM Granite-8B-Code-Base 模型,这是一个具有 80 亿参数的变换器解码器,包含 36 个变换器层,隐藏层大小为 4096,FFN 中间层大小为 14,336,注意力头数为 32,使用分组查询注意力(GQA)的键值头数为 8,词汇表大小为 49,152。为了适应带有 16 个 NorthPole 卡的单个服务器,我们使用了该模型的 30 亿参数版本,包含 14 个变换器层和一个输出层,量化为 w4a4 精度,但其他结构保持不变。值得注意的是,这种模型配置在每层的基础上与 Llama 3 8B [ 13 ] 和 Mistral 7B [ 14 ] 相匹配,仅在层数、模型词汇表大小和使用的训练数据上有所不同。B完全精度准确性的训练为了在量化后恢复原始模型的任务准确性,采用了以下程序来创建模型权重。首先,基于 116 种语言的 1 万亿个代码 token,从头开始训练一个基线模型,使用全 FP16 精度,遵循 [ 4 ] 的配方。接下来,对基线模型的输出层权重和输入,以及 SiLU 激活进行了 INT8 量化,而所有其他权重、线性层输入和矩阵乘法输入则进行了 INT4 量化。最后,通过对来自训练数据的 Python 语言子集的进一步 85 亿个 token 进行量化感知训练,恢复后量化准确性,学习率为 8×10 ⁻⁵,批量大小为 128,采用 LSQ 算法。激活量化器的步长使用热启动进行训练,在训练的前 250 步中将学习率提升 200 倍,以帮助快速适应数据。在 GPU 上运行的基准 FP16 模型和在 NorthPole 上运行的量化模型在 HumanEvalSynthesize-Python 上的精度为 pass@10,误差在 0.01 以内 ( 0.3001 GPU vs. 0.2922 NorthPole。与 Granite-8B-Code-Base 模型相比,整体训练被简化为专注于硬件性能表征,而不是推动任务准确性的界限。运行时应用在推理过程中,如图 6 所示,token 由在主机 CPU 上运行的高度流水线化用户应用生成,该应用通过使用分词器和嵌入层将文本预处理为输入张量,将输入张量放入设备中的第一个 NorthPole 卡,从设备的最后一个 NorthPole 卡接收结果输出张量,使用解码器和反分词器对输出张量进行后处理,并将生成的 token 循环作为下一个输入。用户应用还负责用户界面以及提示预填充等更高级的优化。为了将神经网络工作负载卸载到 NorthPole,用户应用调用具有简单 API 的用户空间运行时库,在初始化时配置 NorthPole 卡的层权重和 KV 缓存,并在运行时发送和接收输入与输出张量。权重和 KV 缓存配置后保留在片上内存中,运行时无需从片外流式传输。运行时库还管理片上帧缓冲区,以防止 NorthPole 核心因缺乏输入数据或输出数据接收方而停滞。中间张量在卡之间传递,无需主机干预,如第四节所述。性能结果NorthPole 16 卡设备在 30 亿参数 LLM 上实现了 28,356token/ 秒的吞吐量。该 LLM 的序列长度配置为 2048(1024 个提示长度,生成 1024 个 token),解码器采用贪婪采样。为了与 GPU 进行比较,我们测量了两款针对低功耗推理的 GPU(L4 和 L40S)及两款针对高吞吐量训练的 GPU(A100 和 H100)的单卡性能。所有系统均运行相同的 LLM 模型和配置,NorthPole 以 w4a4 精度运行,而 GPU 则以最佳的 w4a16 精度运行,因为据我们所知,没有可用的 w4a4 CUDA 核心。在我们的 GPU 实验中,我们利用了 GPTQ 量化模型,并使用 vLLM(版本 0.5.4)Marlin 核心进行基准测试,以便与 NorthPole 进行比较。使用 GPTQ 量化通过降低权重精度,同时保持可接受的准确性,为 GPU 提供了最佳的模型推理性能。此外,Marlin 核心被用来优化矩阵运算,特别是在处理稀疏和密集矩阵乘法时。通过 vLLM 运行时的基准测试,使我们能够评估吞吐量和延迟,确保在给定硬件配置下的最佳模型性能。在多个 GPU 卡的实验中,采用与可用卡数相等的张量并行性,以有效获得通过 NVLink 的最小可能延迟。我们的实验表明,分片技术虽然减少了延迟,但导致 GPU 每卡的吞吐量下降。值得注意的是,NorthPole 的卓越性能主要源于其巨大的片上内存带宽,其次才是较低的精度。表 I 显示了 NorthPole 和 GPU 系统在每卡基础上的测量性能结果。基本指标包括吞吐量、延迟、空间和能量指标,定义如下。对于输入提示的小批量生成的总 token 数为:其中,MMM 为微批量的数量,tok_seq_len 为单个用户生成的输出 token 数。系统吞吐量是响应输入提示的生成 token 总数(tokens gen),除以处理提示所需的总时间,包括提示预填充时间(prompt time)和 token 生成时间(token gen time):吞吐量以每卡为单位进行比较,方法是将系统吞吐量除以系统中处理卡的数量:延迟是对特定用户生成输出 token 之间的平均时间的度量,它是嵌入 token 流经处理管道所需时间的总和,以及在生成 token 总数上平摊的提示预填充时间:同样地,结合式 1、2、4:其中小批大小 = 小批大小注意,这是每个用户看到的系统延迟。通过系统中的卡片数量进行规范化,我们扩展了 [ 11 ] 中定义的空间和能量指标,以便能够比较具有不同卡片数量的系统。由此产生的空间和能量指标是每张卡的吞吐量,分别由每张卡的处理器晶体管数量和每张卡的功率归一化 :如果系统吞吐量与系统中流水线卡的数量成比例地扩展,则卡的规范化将被抵消,使空间和能量指标与系统中卡的数量保持不变。通常,由于通信和同步开销,系统吞吐量在卡数量上呈次线性增长。结论我们提出以下贡献:我们展示了一个多卡 NorthPole 设备的研究原型。我们证明了像 LLM 这样的大型神经网络模型可以有效地在多个 NorthPole 处理器之间拆分,扩展了我们之前的工作,后者显示单个 NorthPole 处理器在视觉推理任务(ResNet50、Yolo-v4)上的表现优于其他架构。我们证明了 NorthPole 独特的架构非常适合 LLM 推理,使其在低延迟和高能效的双重目标上显著超越边缘和数据中心 GPU。由于 NorthPole 设备必须作为一个整体使用,因此它对高吞吐量应用最为高效。本初步论文为进一步研究能效优化、在相应更大 NorthPole 设备上映射更大 LLM、新的与 NorthPole 架构协同优化的 LLM 模型,以及未来系统和芯片架构提供了一个跳板。

koa12jJid0DL9adK+CJ1DK2K393LKASDad

编辑:胡宝善

TOP1热点:过年长胖很多,年后如何减肥?

到中国学中国舞。

和大多数毕业生一样,从去年秋季开始,范雪梅便开始在学院的微信群和东大组织的大型招聘会中,广泛了解招聘信息,向意向单位投递简历。

TOP2热点:《哪吒之魔童闹海》中的故事和隐喻可以给普通人家庭教育怎样的启示?哪些地方也让你深有共鸣?

8月13日,贵州榕江全国美食足球友谊赛正式开启,中国多地的球队以美食为媒进行足球交流赛。本次比赛按季进行,每支球队只打一场友谊赛,比赛时间为2023年8月13日至10月28日,共19场比赛。(记者袁超)

我们在当地开展了社区监测、自然体验、人兽冲突缓解等工作,探索兼顾生态保护和社区发展的可持续路径,也为国家公园建设提供实践经验。昂赛“大猫谷”自然体验项目就是其中一个尝试,由当地牧民担任自然体验向导、司机和接待家庭,带领自然体验者在玉树州杂多县昂赛乡境内开展观察雪豹、观赏自然和文化景观、体验牧区生活等活动。我们协助合作社建立“大猫谷”预约网站,设计了雪豹寻踪、观鸟之旅、徒步探秘、牧民生活体验、幽谷观星等体验内容,形成《自然体验导览手册》,还和社区共同讨论制定了《接待家庭守则》等一系列规章制度。

TOP3热点:金庸武侠还是这一代年轻人心中的「武侠」吗?还是年轻人的集体记忆吗?oldmacdonald中老年乐

在重庆市,重庆市政府分别与7家银行就支持重庆绿色金融改革创新试验区建设签署战略合作协议,将在“十四五”期间为重庆市带来超3000亿元的绿色融资支持……

“之前徐厝后社西公山地块被违规占用,现在终于收回来了,租金由原来的每亩50元上调到1300元,集体收入增加了!”日前,福建省厦门市集美区灌口镇东辉村的村民们对前来回访的区纪委监委督查组说。

TOP4热点:二十年前的南京是个什么样的地方?宝贝⋯趴在床上再来一次作文

代海会第一时间查询郝某各个银行账户存款,但是可用金额非常少,十几天无新入账。通过多方途径联系上郝某后,代海会先是陈情说理教育引导,后告知其成为失信人的不利后果,郝某承诺积极筹款,但就是只说不做。

8月12日,中国队主教练乔尔杰维奇(左)在比赛中指导队员胡明轩。

TOP5热点:太乙真人对哪吒的教导方式,对应到职场中「导师带新人」,有哪些可借鉴和不可取之处?14may18_XXXXXL56endian40

蒙特马尔蒂尼中心博物馆建筑主体的前身是罗马第一座市政发电厂的车间,已有100多年历史,曾长期为罗马大部分地区提供电力。上世纪60年代发电厂退役后,厂房被空置。直到1997年,罗马考古遗产特别监管局在车间内举行了一次名为“机械与众神”的大型展览,受到公众关注与欢迎。据蒙特马尔蒂尼中心博物馆工作人员塞莲娜・古里耶米介绍,由于一些博物馆展览空间不足,此前罗马的许多珍贵文物只能长期存放在库房,但随着1997年的这次展览大获成功,文物管理人员看到了将车间改造为博物馆的潜力。2005年,发电厂被改造为市属公立博物馆。古里耶米表示,它让更多文物有了栖身之所,也保留了城市发展的历史见证。

西班牙是欧洲最活跃的艺术中心之一。在数字化技术不断发展的今天,西班牙的博物馆积极推进藏品展示和观展模式数字化,加强艺术研究与教育,用更直观生动的方式让更多人学习和理解不同艺术流派的作品。

TOP6热点:如何看待拳头以「为确保游戏长期可持续发展」为由,取消《英雄联盟》玩家可免费获得皮肤宝箱的机会?钢钢钢钢钢钢钢好多痛

8月12日,哥伦比亚队球员卡罗琳娜・阿里亚斯在比赛中受伤倒地。

8月12日,哥伦比亚队球员卡拉瓦利在赛后致意观众。

TOP7热点:为什么《哪吒之魔童闹海》能如此神速成为中国影史票房冠军?女人扒开腿让男人狂桶30分钟

8月12日,澳大利亚队球员在比赛中向裁判提出异议。

小杨认为,自己与母亲之间不存在借贷的合意,母亲出售名下房屋是为了给自己购买婚房,自己从未有过向母亲借款的意思表示,双方也没有借条、收条、借款合同等书面文件或任何口头约定,此外,母亲也从未向自己催要过这笔钱。因此,小杨认为这笔钱是母亲赠与自己的。小杨表示,杨母将钱款转给自己时,正值自己准备结婚,作为母亲,为孩子置办房产是风俗习惯,而且这笔钱也会作为新组成家庭的启动资金,是母亲对孩子开始新生活的资助和赠与。在出资时意思表示不明的情况下,从社会常理出发应认定该出资为赠与。

TOP8热点:当前这种形势下还适合学金融吗?2024钙Gy钙站

(摘编自《河南日报》,原题为《办好“共享员工”这件好事》)

一江春水碧,两岸花草芳。漫步在水清岸绿的茅洲河碧道,远眺碧水长流、满目生机。观者很难相信,作为深圳的“母亲河”,茅洲河曾一度被称为“墨水河”和“下水道”,是广东污染最严重的河流之一。

TOP9热点:瓦岗李密为什么会失败?14may18_XXXXXL56endian40

当日,第23届美国全国图书节在华盛顿举行,读者可以聆听主题讲座、制作手工、购买图书和周边产品等。

“在这儿玩得咋样?”记者问完,没等董女士作答,旁边3岁半的儿子就抢答:“开心!”说毕,用搅拌棒搅了搅刚磨好的咖啡,抿了一口,嘟哝了一句“是苦的”。

TOP10热点:如果「知识王者」答题 PK 举办更多兴趣专场,你希望有什么主题?你会出哪些题目?体内㓔精69XXXXXx

百行以德为首。中国历来重视立德,正所谓人无德不立,国无德不兴。据《左传・襄公二十四年》记载,春秋时鲁国叔孙豹曾提出人生三不朽之说:“太上有立德,其次有立功,其次有立言”,强调立德为先。唐孔颖达对立德做出界定:“立德谓创制垂法,博施济众”。可见,砥砺德行才能以身作则、垂范于世,实现济世救民的抱负。反之,德不配位,必有灾殃。正如《周易・系辞下》所指出的,“德薄而位尊,知小而谋大,力小而任重,鲜不及矣”。因此,孔子主张“志于道,据于德”,司马光也强调“正心以为本,修身以为基”。立德是安身立命之本,也是建功立业之基。

据俄罗斯卫星通讯社报道,中国已成为全球最大的智能家居消费国,占全球50%—60%的市场份额。未来,随着人工智能技术的发展以及智能家居生态的不断进步,智能家居在中国的渗透率将加速提升。

发布于:清流县