加密投资新忧:比特币自我保管的风险攀升

是否将加密货币作为长期持有资产可能是对数字资产感兴趣的投资者需要做出的最大决策,但像比特币这样的加密货币该存放在哪里,可能会成为最具决定性的问题。在今年早些时候加利福尼亚发生野火之后,社交媒体上开始出现一些声称比特币损失的帖子。一些用户展示了原本用于保护助记词的金属板被烧毁,变得难以辨认,或者描述了要找回存放在受火灾影响银行的保险箱中的加密货币密钥有多么复杂。


虽然无法核实关于火灾烧毁包含所谓 “硬冷存储” 加密钱包和助记词的硬盘、笔记本电脑及其他存储设备的个人说法,但可以确定的是,比特币的自我保管存在一系列独特的安全问题,而且这些风险还在不断增加。

加密货币持有者通常会使用某种形式的所谓 “钱包”,钱包有几个主要特点:该钱包是否连接到互联网,以及钱包中直接嵌入的用于交易和转账的控制权有多少。此外,还有一个根本问题,即加密货币投资者是否完全使用第三方进行托管,还是对自己持有的资产保持完全的托管和交易控制权。

标准的第三方平台 “热钱包”(比如 Coinbase 或Blockchain.com提供的服务)是持续连接到互联网的。另一方面,“冷存储” 和 “冷钱包” 包括离线保存私钥的硬件设备(如 U 盘),甚至只是写在纸上或金属上的助记词(一种主恢复代码,由 12 到 24 个单词组成,用于恢复对加密钱包的访问权限)。当硬件钱包或助记词的离线备份通过另一台设备连接到互联网时,就可以用来访问加密货币。

对于第三方托管选项,有一些措施可以帮助所有者保持警惕,防范可能会访问到联网平台的网络犯罪分子所带来的威胁,包括使用双重身份验证和强密码。美国司法部下属负责美国执法资产没收的美国法警局,使用 Coinbase Prime 为其没收的数字资产提供托管服务。

许多比特币多头更愿意自行保管像比特币这样的数字资产,部分原因和他们一开始对比特币感兴趣的原因相同:对某些形式的机构控制缺乏信心。加密货币经纪商提供的托管钱包以便利性换取了交易所被黑客攻击、关闭或欺诈的风险,就像备受瞩目的 FTX 倒闭事件那样。而野火只是最近一系列全球事件中的一个例子,这些事件引发了更多关于加密货币托管争论转变的问题。中东地区持续的冲突以及俄乌冲突,已经促使海外的比特币多头重新思考他们的自我保管方式。

自我保管公司 Casa 的联合创始人兼首席执行官尼克・纽曼表示,世界上像自然灾害这样的物理风险是一个重新审视比特币安全机制以及大多数人在操作中常见安全漏洞的机会。“大多数人用一个私钥来保护他们的比特币。如果那个私钥在单个设备上,或者以助记词的形式写在纸上,这就是一个单点故障。如果你丢失了那个私钥,你的比特币就没了。” 他说。

纽曼指出,很明显,把助记词写在纸上是抵御火灾能力最低的保护方式,但这却是常见的做法。把这些纸条放进防火袋或保险箱里能提供一些保护,但作用不大,而且即使采取额外措施,把助记词写在 “坚不可摧” 的金属存储板上,也存在一些失效点。一方面,这些金属板可能并没有那么坚不可摧;另一方面,在废墟中可能根本找不到它们。

“从逻辑上讲,考虑到加利福尼亚火灾发生的地点以及在 X(原Twitter)上分享的故事,很有可能比特币已经丢失了。” 纽曼说,“其中一些说法相当有说服力。”

Casa 会对助记词备份进行年度压力测试。

一些自我保管服务,比如 Casa,提供多重签名设置,降低了单点故障的风险。一个多密钥加密 “金库” 可以包括手机密钥、多个硬件密钥,以及像 Casa 这样的公司代表所有者持有的恢复密钥。

多重签名托管方式允许所有者持有大多数密钥,而一个可信赖的合作伙伴持有少数密钥。Swan Bitcoin 的董事总经理约翰・哈尔表示,在这样的设置下,所有者需要同时丢失所有的物理设备和所有的助记词副本才行。只要所有者能够访问至少一个设备或一个助记词,他们就能够找回自己的比特币。哈尔说,这种方法应该能显著降低在像自然灾害这样的事件中所有设备都丢失的可能性。

“你可以把这些密钥分散在多个地区甚至多个国家,并且你需要五个密钥中的任意三个来批准一笔比特币交易。” 纽曼谈到 Casa 的五密钥方法时说道。

受监管的加密货币托管商 Fortress Trust 的首席行政官乔丹・巴尔塔佐尔表示,我们在个人生活其他方面使用的最佳实践也应该应用于加密货币领域。一方面是存储方式的多样化以及对风险的权衡。他说,在将个人敏感数据备份到云端以确保数据不丢失或不损坏方面,数字资产和其他数据没什么不同。

包括 Coinbase 和杰克・多尔西的 Block 在内的公司提供的产品试图融合其中一些理念,打造出一种更安全且使用起来依然方便的加密货币钱包。有 Coinbase Vault,它在用户能够访问用于交易的加密货币资产之前设置了增强的安全步骤。还有 Coinbase Wallet 和 Block 的 Bitkey,它们都有像传统钱包一样的移动应用程序,使转移比特币变得容易,但同时具备与硬件钱包配对的能力,并且增加了通常与冷存储相关的安全性。

Bitkey 硬件要求对交易进行多重授权以增加安全性,类似于 “多重签名钱包”。Bitkey 还提供恢复工具,这样自我保管中最大的风险之一 —— 丢失恢复冷钱包所需的代码或短语 —— 就不那么成问题了。

像多尔西公司推出的这类解决方案可能有助于解决便利性和安全性之间的矛盾;至少,它们凸显了这种矛盾的存在,并且这很可能会成为加密货币更广泛普及的一个障碍。除了野火、各种自然灾害和冲突等形式的风险之外,比特币的自我保管还可能面临所有个人风险中最大的风险:比特币所有者的意外死亡。可以说,在解锁加密货币的保管链方面,没有什么比继承问题更复杂的了。

Coinbase 在释放托管资金之前需要遗嘱认证法庭文件和特定的遗嘱指定,而物理钱包几乎不提供任何支持,这可能会使所有的数字价值都被锁定在一个私钥上。Bitkey 在 2 月份推出了其继承解决方案,一位 Bitkey 高管称这是在解决 “一个可能会引发数十亿美元损失的问题”。

“在比特币上有大量投资的人绝对需要以不同的方式思考如何保护它。” 纽曼说。他表示,在像加利福尼亚野火这样的灾难发生后,或者当像 FTX 这样的交易所倒闭时,这个行业确实会看到更多的加密货币持有者采取行动,转向更安全的存储设置。“我想,等到‘坏事发生’才促使人们采取行动改善自己的个人处境,这是人的本性。” 他说,“但我认为,如果人们能更积极主动一些会更好。否则,他们就有可能遭遇那种‘坏事’,到那时就太晚了。”

Read More

用 cursor 肝了 3 个月,搞了个聚合搜索的浏览器扩展,有喜欢的吗

cmlanche:

我的新产品是wedock.net,用 cursor 肝了 3 个月,自己用了一个月发现好多 bug ,现在终于稳定了,才敢拿出来给大家分享,大家看看咋样,欢迎评论

插件内嵌在所有网页中,除了应用市场网页和新标签页,默认悬浮在网页的底部,可以调整到其他位置

搜索引擎切换

AI 平台切换

搜索历史,支持一键跳转到其他平台

输入内容后,默认按 enter 跳转到当前选择的 AI 平台,按 control+enter 跳转到搜素引擎

Read More

[北京/上海/杭州/深圳] 抖音-基础技术-同学,你喜欢 Swift 吗?

Forelax:

同学,你喜欢 Swift 吗?

当 Xcode 的编译进度条又一次停滞不前;

当 SwiftUI 的能量还没有在更多电脑上绽放光芒;

当业务同学提出“还有没有更好用的工具”的诉求时;

你是否依然记得第一次用 Swift 写出 Hello World 时的悸动,和想要将其分享给更多开发者的那种欲望?

如果你的答案是 “YES”,那不妨,来看看我们。

我们是一群执着于用 Swift 重构世界的工匠

在 iOS 生态的最底层构建基础设施,

为开发者打造更趁手的神兵利器。

DanceUI,就是用我们的热情铸造出的第一把神兵

再好的风景,没有优秀的伙伴相伴,也会索然无味,我们诚邀身处 北京、深圳、上海、杭州 的你,和我们一起踏上这趟注定不平凡的旅途:

  • Swift 基础框架研发专家
    • 岗位职责:参与抖音 Swift 技术规划,负责抖音 Swift 端体系化建设、通过 Swift 相关配套、DanceUI 声明式框架,在抖音内部进行 Swift 认知建设 & 布道,并参与移动端新技术调研与落地
    • 岗位要求:有丰富的 iOS 端框架研发经验,掌握 Swift 和 C++,加分项:熟练逆向苹果系统层实现、持续关注 Swift 生态现状
  • SwiftToolchain 专家( For Swift 本地研发体验优化 )
    • 岗位职责:参与 SwiftToolchain 技术规划,提升编译、调试效率,优化索引功能,通过数据驱动取得指标收益,参与新技术调研与落地
    • 岗位要求:具备 iOS 构建工具链知识,掌握 SwiftCompiler 、LLVM 、LLDB 、ld 等相关技术,有编译工具链优化经验,加分项:大规模项目中深度逆向苹果系统实现的经验,持续关注行业内最新技术动向,具备优秀的问题解决能力
  • iOS 端原生渲染研发专家
    • 岗位职责:参与端原生渲染能力技术规划,负责研发与体验优化,建设配套设施,参与新技术调研与落地
    • 岗位要求:有 iOS 端框架研发经验,掌握 Swift 和 C++,熟悉相关流程,加分项:熟悉图形渲染基本流程,有 Skia 、OpenGL 或者 Vulkan 、Metal 的优化经验,熟练逆向复杂的苹果系统层实现,熟悉 SwiftUI/Compose 等端上声明式框架,有丰富的实践经验

这里没有 PPT 造车的套路

只有面对技术难题时的热血沸腾

当你在深夜写下的代码

可能正在改变下一代全球开发者的工作方式

这就是我们存在的意义

「喜欢 Swift ,就来加入我们」

如果你想让你对 Swift 的热情化为实际的一行行代码

请将简历发往: renyujie.spatial@bytedance.com

Read More

广汽国际与泰国机场管理局达成战略合作,交付 50 台 AION Y Plus 汽车

IT之家 4 月 6 日消息,广汽国际 4 月 4 日与泰国机场管理局(简称 AOT)达成战略合作,正式交付 50 台 AION Y Plus 纯电动车,投入运营服务,为素万那普国际机场乘客提供出行选择。

图片

据IT之家此前报道,2025 款广汽埃安 AION Y Plus 纯电 SUV 汽车于去年 12 月正式上市,该车 CLTC 工况续航里程为 510 公里,官方指导价为 12.18 万元。

据介绍,广汽埃安 AION Y Plus 纯电 SUV 接了上一代经典设计,车型体现出实用主义风格,使用封闭式前脸,配备“天使之翼”前大灯、贯穿式尾灯组,采用 17 英寸铝合金轮毂。

系列车型仍沿用 2023 款设计,配备 10.25 英寸液晶仪表盘和 14.6 英寸中控大屏,使用怀挡换挡机构,标配 6 扬声器音响、倒车影像、后排出风口、皮质方向盘等。

该车尺寸为 4535×1870×1650mm、轴距为 2750mm,采用前置单电机布局,最大功率 100 千瓦、峰值扭矩 176 牛・米。2025 款车型采用 58.4 千瓦时 / 58.9 千瓦时磷酸铁锂刀片电池组(2023 款为 61.7 千瓦时),CLTC 纯电续航里程为 510 公里。

Read More

Meta LIama 4 重夺开源第一:DeepSeek 同等代码能力但参数减半,一张 H100 就能跑,还有两万亿参数超大杯

AI 不过周末,硅谷也是如此。大周日的,Llama 家族上新,一群 LIama 4 就这么突然发布了。

这是 Meta 首个基于 MoE 架构模型系列,目前共有三个款:

Llama 4 Scout、Llama 4 Maverick、Llama 4 Behemoth。

最后一个尚未推出,只是预告,但 Meta 已经毫不避讳地称前两者是“我们迄今为止最先进的型号,也是同类产品中最好的多模态型号”

详细来看一些关键词 ——

  • Llama 4 Scout,16 位专家的 170 亿激活参数的多模态模型,单个 H100 GPU 可运行,同类 SOTA,并拥有 10M 上下文窗口。

  • Llama 4 Maverick,128 位专家的 170 亿激活参数多模态模型,击败 GPT-4o 和 Gemini 2.0 Flash,与 DeepSeek-V3 同等代码能力参数只要一半,主打与 DeepSeek 一样的性价比,单个 H100 主机即可运行

  • Llama 4 Behemoth:2 万亿参数的超大超强模型,以上二者都由这个模型蒸馏而来;目前还在训练中;多个基准测试超过 GPT-4.5、Claude Sonnet 3.7 和 Gemini 2.0 Pro。

Meta 官推激情表示,这些 Llama 4 模型标志着 Llama 生态系统新时代 —— 原生多模态 AI 创新的开始。

与此同时,大模型竞技场排名迎来一轮更新。

此次发布的 Llama 4 Maverick,在困难提示、编码、数学、创意写作方面并列第一;得分 1417,不仅大大超越了此前 Meta 自家的 Llama-3-405B(提升了 149 分),还成为史上第 4 个突破 1400 分的模型;。

而且跑分明确 —— 超越 DeepSeek-V3,实现亮相即登顶,直接成为排名第一的开源模型

谷歌 CEO 劈柴哥第一时间发来贺电:

AI 世界,从不平淡!

恭喜呀!前进吧,Llama 4 团队!

中杯、大杯首批亮相

了解了 Llama 4 家族全体成员后,我们先来见识一下首批发布的 2 个模型:

  • 中杯

    :Llama 4 Scout(侦查兵 Llama 4)。

  • 大杯

    :Llama 4 Maverick(特立独行的 Llama 4)。

两者均已能在 Llama 官网和抱抱脸上下载。

我们抓取并提炼出这俩模型的一些特点:

Meta 首批 MoE 架构模型

这是 Llama 系列,第一批使用 MoE(混合专家模型)构建的模型。

中杯 Llama 4 Scout 有 17B 激活参数,拥有 16 个专家模型。

大杯 Llama 4 Maverick 拥有 17B 激活参数,拥有 128 个专家模型。

至于还没和大家正式见面的超大杯 Llama 4 Maverick,拥有 288B 激活参数,拥有 16 个专家模型。

非常长 ———— 的上下文

Llama 4 系列,均具有很长的上下文窗口。

这一点主要体现在 Meta 公布的中杯 Llama 4 Scout 的详细数据里:

Llama 4 Scout 提供了行业领先的 100 万上下文窗口

经过预训练和后训练,Llama 4 Scout 长度为 256K,这使基本模型具有高级长度泛化能力。

这个配置,让它在广泛的测评集上,比 Gemma 3、Gemini 2.0 Flash-Lite 和 Mistral 3.1 的结果更优秀。

它在「大海捞针」测试上的表现如下:

结果如下:

那么之前的 Llama 系列模型的上下文窗口情况呢?

  • Llama 1,上下文窗口为 2k;

  • Llama 2,上下文窗口默认为 4k,但可以通过微调等可以拓展到 32k;

  • Llama 3,上下文窗口是 8k,后来 Llama 3.1 的长文本能力拓展到了 128k。

Meta 官方博客中是这么写的:

(Llama 4 的长上下文)开辟了一个充满可能性的世界,包括多文档摘要、解析广泛的用户活动以执行个性化任务以及对庞大的代码库进行推理。

原生多模态设计

Llama 4 系列,开启了 Llama 的原生多模态时代。

而已经公开对外的中杯和大杯,被官方称为“轻量级原生多模态模型”。

给用户的体验就是,上传一张图片,可以直接在对话框中提问关于这张图片的各种问题。

不是我说,Llama 终于长眼睛了!!!

上面这张动图展示的仅仅是最基础的,“为难”程都升级也不怕。

比如喂它一张铺满工具的图片,问它哪些适合来干某个活。

它会很快地把适用的工具圈出来:

要认颜色 + 认小鸟,也没在怕的:

中杯和大杯都在官方介绍中被打上了“世界上同类产品中最好的多模态模型”的 tag。

来看和 Llama 系列前作、Gemma 3、Mistral 3.1、Gemini 2.0 Flash-Lite 的对比结果 ——

可以看到,在各个测评集上的表现,Llama 4 Scout 样样都是新 SOTA

语言天赋 Max

经过了预训练和微调的 Llama 4,掌握全球 12 种语言,以此“方便全球开发者的部署”。

比 DeepSeek 更狠的“AI 模型拼多多”

一定要跟大家分享的一个细节,Meta 这次在模型 API 价格方面,下狠手了!

先说结果:

系列超大杯 Llama 4 Maverick,不仅超越了同类型号其它模型,价格还非常之美丽。

更直观地来看这张表格,真的狠过 DeepSeek—— 从性能到价格各个纬度。

要知道,超大杯 Llama 4 Behemoth 属于是 Llama 4 系列的教师模型。

如果说中杯和大杯是轻量级选手,这位就是绝对的重磅玩家。

288B 激活参数,16 个专家模型。

最重要的是,它的总参数量高达 2000B!

在数学、多语言和图像基准测试中,它提供了非推理模型的最先进性能。

当“最牛”和“最便宜”摆在一起的时候,试问哪位开发者会不心动?(doge)

训练细节

用他们自己的话来说,Llama 系列是进行了彻底的重新设计。目前第一组 LIama 4 系列模型,他们也公布了具体的训练细节。

预训练

他们首次使用混合专家 MoE 架构,在 MoE 架构中,单个 token 仅激活总参数的一小部分。MoE 架构在训练和推理方面具有更高的计算效率,固定训练 FLOP 成本情况下质量更高。

比如,Llama 4Maverick 模型有 17B 个激活参数和 400B 个总参数。他们使用交替的密集层和混合专家 (MoE) 层来提高推理效率。

MoE 层使用 128 位路由(Routed)专家和一位共享专家。每个令牌都会发送给共享专家以及 128 位路由(Routed)专家之一。

因此,虽然所有参数都存储在内存中,但在为这些模型提供服务时,只有总参数的子集被激活。

这通过降低模型服务成本和延迟来提高推理效率 ——Llama 4 Maverick 可以在单个 H100 DGX 主机上运行,以便于部署,也可以通过分布式推理实现最高效率。

他们早期融合,将文本和视觉 token 无缝集成到统一模型中。

他们开发了一种新的训练技术:MetaP,可以设置关键模型超参数,比如每层的学习率和初始化尺度。

结果发现,所选的超参数能在批量大小、模型宽度、深度和训练 token 的不同值之间很好地扩展和泛化 ——

Llama 4 通过在 200 种语言(包括 100 多种语言,每种语言有超过 10 亿个词库)上进行预训练,实现了开源微调工作,多语言词库总量是 Llama 3 的 10 倍。

此外,他们使用 FP8 精度进行高效模型训练,同时不牺牲质量并确保模型 FLOPs 的高利用率 — 在使用 FP8 和 32K GPU 预训练 Llama 4 Behemoth 模型时,结果他们实现了 390TFLOPs / GPU。

用于训练的整体混合数据包括 30 多万亿个 token,是 Llama 3 预训练混合物的两倍多,其中包括各种文本、图像和视频数据集。

在所谓的“中期训练”中继续训练模型,通过新的训练方法(包括使用专业数据集进行长上下文扩展)来提高模型的核心功能。

后训练

后训练阶段,他们提出一个课程策略,与单个模式专家模型相比,该策略不会牺牲性能。

在 Llama 4 中,采用了一种不同的方法来改造我们的后期训练管道:

轻量级监督微调 (SFT)> 在线强化学习 (RL)> 轻量级直接偏好优化 (DPO)。

一个关键的教训是,SFT 和 DPO 可能会过度约束模型,限制在线强化学习阶段的探索,并导致精度降低,尤其是在推理、编码和数学领域。

为了解决这个问题,他们使用 Llama 模型作为评判标准,删除了 50% 以上被标记为简单的数据,并对剩余的较难数据集进行了轻量级 SFT 处理。

在随后的在线强化学习阶段,通过仔细选择较难的提示,我们实现了性能上的飞跃。

此外,他们还实施了一种连续的在线强化学习策略,即交替训练模型,然后利用模型不断过滤并只保留中等难度到较高难度的提示。事实证明,这种策略在计算量和准确性的权衡方面非常有利。

然后,他们采用轻量级 DPO 来处理与模型响应质量相关的拐角情况,从而有效地在模型的智能性和对话能力之间实现了良好的平衡。流水线架构和带有自适应数据过滤功能的连续在线 RL 策略,最后造就了现在的 LIama 4。

总结来看,Llama 4 架构的一项关键创新是使用交错注意力层,而无需位置嵌入。此外,他们还采用了注意力推理时间温度缩放来增强长度泛化。

这些他们称之为 iRoPE 架构,其中“i”代表“交错”注意力层,突出了支持“无限”上下文长度的长期目标,而“RoPE ”指的是大多数层中采用的旋转位置嵌入。

Llama 4 Behemoth

最后,他们还透露了超大模型 Llama 4 Behemoth 一些蒸馏和训练细节。

我们开发了一种新颖的蒸馏损失函数,可通过训练动态加权软目标和硬目标。

预训练阶段,Llama 4 Behemoth 的代码蒸馏功能可以摊销学生训练中使用的大部分训练数据计算蒸馏目标所需的资源密集型前向传递的计算成本。对于纳入学生训练的其他新数据,他们在 Behemoth 模型上运行前向传递,以创建蒸馏目标。

后训练阶段,为了最大限度地提高性能,他们删减了 95% 的 SFT 数据,而小型模型只需删减 50% 的数据,以实现对质量和效率的必要关注。

他们在进行轻量级 SFT 后,再进行大规模强化学习(RL),模型的推理和编码能力会有更显著的提高

强化学习方法侧重于通过对策略模型进行 pass@k 分析来抽取高难度提示,并根据提示难度的增加精心设计训练课程。

此外还发现,在训练过程中动态过滤掉优势为零的提示语,并构建包含多种能力的混合提示语的训练批次,有助于提高数学、推理和编码的性能。最后,从各种系统指令中取样对于确保模型在推理和编码方面保持指令跟随能力并在各种任务中表现出色至关重要。

由于其规模空前,要为两万亿个参数模型扩展 RL,还需要改造底层 RL 基础设施。

他们优化了 MoE 并行化的设计,从而加快了迭代速度;并开发了一个完全异步的在线 RL 训练框架,提高了灵活性。

现有的分布式训练框架会牺牲计算内存以将所有模型堆叠在内存中,相比之下,他们新基础架构能够将不同模型灵活分配到不同 GPU 上,并根据计算速度在多个模型之间平衡资源。

与前几代产品相比,这一创新使训练效率提高了约 10 倍

One More Thing

要知道,由于昨天 DeepSeek 发了新论文,搞得奥尔特曼都坐不住了,赶紧出来发声:

计划改变:我们可能在几周之后先发布 o3 和 o4-mini。

GPT-5 就在几个月后啊~

但,谁知道半路又杀出个 Llama 4?!

前有猛虎,后有豺狼,OpenAI 你真的得加油了……

网友调侃道,当奥尔特曼一睁眼,看到 Llama 4 来了,而且 Llama 4 的成本比 GPT-4.5 降低了 3 个数量级后 ——

他的状态一定是酱婶儿的:

以及相比 Llama,现在可能神秘低调的 DeepSeek,可能不知道什么时候突然就会推出 DeepSeek R2 和 V4… 同在杭州的通义千问也干劲十足,Llama 也好 GPT 也好,基本成为平行参考了。

太平洋这头,已经开始落地应用和智能体了。

参考链接:

  • [1]https://www.llama.com/

  • [2]https://ai.meta.com/blog/llama-4-multimodal-intelligence/

  • [3]https://x.com/AIatMeta/status/1908598456144531660

  • [4]https://x.com/lmarena_ai/status/1908601011989782976

  • [5]https://x.com/IOHK_Charles/status/1908635624036590070

本文来自微信公众号:量子位(ID:QbitAI),作者:白交衡宇,原标题《LIama 4 发布重夺开源第一!DeepSeek 同等代码能力但参数减一半,一张 H100 就能跑,还有两万亿参数超大杯》

Read More

#考研# 已拟录取,没上过大学,大专是网络教育,本科是自考本还没有学位,真的很想上大学,在工地里打灰遇到过好多大学生,让我了解到自考和大专也能考研究生,...

#考研# 已拟录取,没上过大学,大专是网络教育,本科是自考本还没有学位,真的很想上大学,在工地里打灰遇到过好多大学生,让我了解到自考和大专也能考研究生,我就下定决心考研圆一个大学梦,2024年4月买书先学数学,真是一点一点的补,高中的知识点补俩月,不会的题我就背下来,使劲的刷题,英语更菜了,26个字母都不会背一开始,后面就从初中词汇开始背基础词。专业课很简单,毕竟从工地干好几年也有些基础。 虽然土木已经不行了,但是我真的高兴能考上研究生。希望大家不要笑话我的专业[撇嘴]。

Read More