服务器配置
服务器配置的相关文献在1994年到2022年内共计226篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、预防医学、卫生学
等领域,其中期刊论文122篇、会议论文7篇、专利文献3011839篇;相关期刊80种,包括中小学信息技术教育、中国新通信、电脑知识与技术等;
相关会议7种,包括中国教育与科研计算机网(CERNET)第十四届学术会议、第十八届海洋测绘综合性学术研讨会、中国高等学校电力系统及其自动化专业第二十一届学术年会等;服务器配置的相关文献由348位作者贡献,包括王春海、张松、雷宇等。
服务器配置—发文量
专利文献>
论文:3011839篇
占比:100.00%
总计:3011968篇
服务器配置
-研究学者
- 王春海
- 张松
- 雷宇
- A·格普塔
- D·麦肯纳
- G·格雷巴尼克
- I·阿梅德
- J·S·利普斯科姆
- J·哈平
- L·施瓦茨
- M·威姆斯
- M·科林斯
- M·苏雷德拉
- N·A·阿亚奇图拉
- N·塞德
- P·爱德华兹
- P·钱德拉塞卡安
- 丁岩
- 乔宏明
- 代志强
- 余志文
- 侯鹏
- 俞良玉
- 冯燕青
- 刘凯
- 吕景隆
- 吴天琦
- 吴春明
- 周倩
- 周文旭
- 姚文胜
- 姜明
- 孔宁
- 孔祥真
- 宋菏生
- 宫立基
- 康尚钦
- 延志伟
- 张宇
- 张旻
- 张栋
- 张菊元
- 张诚
- 彭东江
- 徐海涛
- 文帅营
- 李娜
- 李嫚
- 李忠良
- 李红帅
-
-
-
-
摘要:
东营市智能信息处理实验室于2019年12月获批,2020年12月建成。实验室占地面积约100 m^(2),现有GPU服务器4台,其中3台配置256 G内存、1块480 G固态、一块4 T的机械盘和2块2080Ti显卡;1台GPU服务器配置256 G内存、1块480 G固态和一块8 T的机械盘,1块GPU Nvidia TeslaV100显卡;存储服务器配置128 G内存、2块240 G固态,36块4 T机械盘;另有6组机柜、UPS电源、KVM切换器、4台高性能电脑。
-
-
杨奕
-
-
摘要:
分析了当前职业院校《网络服务器搭建与应用》课程的现状,针对现状所面临的困难,对该课程进行了改革,根据职业教育教学的要求,从教学内容、教学手段及考核方式三方面进行创新改革,以构建适应就业教育要求的教学模式.
-
-
张宇
-
-
摘要:
针对当前旅游信息服务平台不能满足游客对信息需求的问题,为了更好为游客提供旅游信息,设计了基于虚拟技术的智慧旅游信息服务平台.首先分析智慧旅游信息服务平台的工作原理,构建了旅游信息智慧服务平台的总体架构,然后采用虚拟技术实现了旅游资源调度、分配和管理,充分利用旅游资源,最后引入数据挖掘技术实现旅游信息智慧推荐,向游客推荐其真正的需要旅游相关信息,实现旅游信息智慧服务,并对智慧旅游信息服务平台性能进行了测试,结果表明,这个平台可以快速、准确向旅客推荐相应的旅游信息,具有较高的实际应用价值.
-
-
-
-
摘要:
随着新媒体技术的不断发展,媒体融合、4 K超高清技术逐渐应用于广播电视播出过程中,在上下游业务不断分化的过程中,IP化进程也在持续加速,而且成为未来电视媒介传播的必然趋势。IP化播出以虚拟技术为基础,有利于控制物理服务器配置,从而使物理服务器的资源得到充分利用,尤其是CPU应用能效得到有效提高,硬件运行成本得到了有效控制。IP化播出能够构建起软件、硬件协调运行方案,降低播出现场事故率和误差率。
-
-
-
-
-
-
-
盖俊飞
-
-
摘要:
在项目初期,将两台HP DL580 G7添加到v SAN群集中,两台HP服务器提供存储资源。将HP DL580 G7服务器RAID卡缓存移除后,进入RAID配置界面时发现,HP服务器不支持"直通"及JBOD模式。
-
-
霍燚
- 《第三届中国专用通信网改革与发展论坛》
| 2003年
-
摘要:
在企业网络设计和规划过程中,面临的一个重要问题就是服务器配置的选择,本文试图从服务器硬件特点,典型应用两个角度,介绍服务器配置中涉及的各种技术以及需要考虑的方面.
-
-
-
-
-
-
-
-
-
陈乃刚;
李健;
曹芳
- 《2017电力行业信息化年会》
| 2017年
-
摘要:
随着互联网图像和视频等可视数据的爆发式增长,找到有效的图像排序、分类和识别方法变得至关重要.卷积神经网络(CNN)是一种基于人脑功能的机器学习方法,通常用于图像分析.目前研究除利用高性能计算(HPC)器件(如GPU)对CNN进行硬件加速外,也采用了CPU+FPGA异构加速平台对CNN进行硬件加速,并取得了很好的效果.基于此研究,提出一种单机多卡的硬件结构,从而进一步提高FPGA加速CNN线上识别任务的效率.通过在单个服务器上配置多块FPGA加速卡,利用多块FPGA加速卡并行机制,对海量数据同时处理,从而进一步提高CNN算法性能.实验表明,提出的基于FPGA的一机多卡架构能够线性提高CNN算法的实现速率.
-
-
陈乃刚;
李健;
曹芳
- 《2017电力行业信息化年会》
| 2017年
-
摘要:
随着互联网图像和视频等可视数据的爆发式增长,找到有效的图像排序、分类和识别方法变得至关重要.卷积神经网络(CNN)是一种基于人脑功能的机器学习方法,通常用于图像分析.目前研究除利用高性能计算(HPC)器件(如GPU)对CNN进行硬件加速外,也采用了CPU+FPGA异构加速平台对CNN进行硬件加速,并取得了很好的效果.基于此研究,提出一种单机多卡的硬件结构,从而进一步提高FPGA加速CNN线上识别任务的效率.通过在单个服务器上配置多块FPGA加速卡,利用多块FPGA加速卡并行机制,对海量数据同时处理,从而进一步提高CNN算法性能.实验表明,提出的基于FPGA的一机多卡架构能够线性提高CNN算法的实现速率.