博客
关于我
Copy攻城狮信手”粘“来 AI 对对联
阅读量:798 次
发布时间:2019-03-25

本文共 1753 字,大约阅读时间需要 5 分钟。

ModelArts AI 对对联 模型开发 实践教程

环境准备

ModelArts 是面向开发者的一站式 AI 开发平台,在数据处理、算法选择和算力支持方面均有强大功能。特别值得一提的是其「我的笔记本」功能,这是一个基于 JupyterLab 的开发环境,便于用户在云端快速开展 AI 项目。

注册与配置

注册华为云账号并完成实名认证后,可以通过【开发工具】卡片(位于 ModelArts 主页底部)进入默认的 CPU 环境 JupyterLab。需要注意的是,切换不同资源规格会导致 Notebook 中变量和安装包的有效性受到影响,建议每次切换时重新启动 Terminal。

ModelArts 提供多种环境配置,包括 Conda-python3、PyTorch-1.0.0 和 TensorFlow-1.13.1 等。对于 GPU 环境用户需注意以下事项:

  • 免费规格的-hourly停用
  • 免费算力不包含对象存储服务(OBS)存储资源费用
  • 如果需要使用 MindSpore 框架,可以通过教程链接跳转到支持 MindSpore 的 JupyterLab 环境。


    简介

    Transformers 是 Google于2017年开源的深度学习框架,主要用于机器翻译、文本摘要、图像描述等任务。核心技术包括通用的编码器-解码器架构,基于注意力机制的特点使其在 NLP领域具有广泛应用。

    论文地址:arxiv.org/abs/1703.03906


    Copy 实践

    新建一个 TensorFlow 1.13.1 环境的 Jupyter Notebook 文件,开始你的对对联模型开发之旅。

    数据处理

    首先,下载对对联数据集。你可以通过以下代码进行操作:

    !wget https://github.com/wb14123/couplet-dataset/releases/download/1.0/couplet.tar.gz!tar -xzvf couplet.tar.gz!mkdir couplet/model

    接下来,安装依赖项并导入必要的库:

    !pip install klab-autotime backcall
    import codecsimport numpy as npfrom keras.models import Modelfrom keras.layers import *from keras.callbacks import Callback
    # 使用GPUimport osos.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"  # 设置 GPU IDos.environ["CUDA_VISIBLE_DEVICES"] = "0"    # 选择要激活的 GPU

    模型定义

    定义一个门控残差网络作为对联生成模型:

    from keras.initializers import RandomUniformdef gated_resnet(x, ksize=3):    x_dim = int(K.int_shape(x)[-1])    xo = Conv1D(x_dim*2, ksize, padding='same')(x)    return Lambda(lambda x: x[0] * K.sigmoid(x[1][..., :x_dim]) + x[1][..., x_dim:] * K.sigmoid(-x[1][..., :x_dim]))([x, xo])

    训练与测试

    训练过程会自动生成对对联对应的下联示例,测试阶段可以通过上联输入生成对应的下联。以下是训练后的效果展示:

    • 上联:天增岁月人增寿
    • 下联:国满春秋我成春

    同样,针对传统对联:

    • 上联:鼠去牛来闻虎啸
    • 下联:羊来马去看龙吟

    此外,还有以下样例:

    • 上联:流光溢彩气冲斗牛
    • 下联:春色流辉风震春虫

    小程序推荐

    华为云开发了AI写春联的小程序,采用 GPT 模型通过云端预训练,基于公开对联数据进行微调,可自动生成对联创作。扫描小程序二维码即可体验更多创意。


    本文内容创作于 ModelArts 开源项目框架下,结合个人实践经验分享,愿与各位AI爱好者交流探讨!

    转载地址:http://afnyk.baihongyu.com/

    你可能感兴趣的文章
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
    查看>>
    NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
    查看>>
    NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
    查看>>
    nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
    查看>>
    NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
    查看>>
    NIFI分页获取Postgresql数据到Hbase中_实际操作---大数据之Nifi工作笔记0049
    查看>>
    NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
    查看>>
    NIFI同步MySql数据源数据_到原始库hbase_同时对数据进行实时分析处理_同步到清洗库_实际操作06---大数据之Nifi工作笔记0046
    查看>>
    Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
    查看>>
    NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
    查看>>