如何搭建腾讯云服务器 服务器搭建 1、首先,我假设你已经买了腾讯云服务器了(官网购买),如上图中可以看到我们买的服务器在运行中。 2、win + r 组合键,输入:mstsc 计算机:填写你的服务器ip(公网ip) 用户名:Administrator(默认),密码会发到你的邮箱上。 打开显示选项,可以看到 本地资源 —> 点开详细信息,勾选驱动器(这个作用是让你可以从PC拷贝 jdk、tomcat等到你的服务器盘中,放C盘下就可以。) 至此第一步基本操作完成,我们登录我们刚才配置的服务器体验一下吧。没错,下面这个图就是我们的服务器桌面了。因为是刚初始化的,桌面空空如也! 之前没接触过服务器的你会惊讶的发现:what?这不是和Win10系统貌似差不多吗,只是它精简了很多软件驱动等,系统变得很小! 环境搭建 安装JDK+Tomcat+MySQL驱动 1、JDK环境配置,这里可以直接复制我的,然后改一下你们自己的路径,就OK了(PS.注意看清楚 .;) 系统变量→新建 JAVA_HOME 变量 = 变量值填写jdk的安装目录 ;JAVA_HOME = E:Javajdk1.7.0系统变量→新建 CLASSPATH 变量 = .;%JAVA_HOME%lib;%JAVA_HOME%libtools.jarAdministrator修改path变量,在最后增加 ;%JAVA_HOME%bin;%JAVA_HOME%jrebin; 2、Tomcat环境配置: 系统变量→新建TOMCAT_HOME 变量=变量值填写tomcat安装目录;TOMCAT_HOME = E:Javatomcat7系统变量→新建 CATALINA_HOME变量=变量值填写tomcat安装目录; CATALINA_HOME = E:Javatomcat7Administrator修改path变量,在最后增加 ;%CATALINA_HOME%bin;%CATALINA_HOME%lib · 测试Tomcat服务器是否安装成功: 先启动Tomcat(cmd命令:startup),在浏览器输入 http://localhost:8080/ ,会出现一个tomcat页面,那么说明成功了。 3、MySQL驱动安装,特别提醒,如果出现以下的问题:把mysql安装包拷贝到服务器C盘里面,再进行安装就不会出错。 · […]
腾讯云如何快速从IPV4向IPV6演进 IPv6技术在国内沉寂数十年后,在国家推进下重新登上重要舞台。2018年工业和信息化部发布了关于贯彻落实《推荐互联网协议第六版(IPV6)规模部署行动计划》的通知。不但展示国家推动IPv6的决心,更对各大运营商和公有云厂商提出了IPv6的改造目标:到2018年末,腾讯云、金山云、网宿科技、蓝汛、帝联科技完成内容分发网络(CDN)IPv6改造;云服务平台企业完成50%云产品IPv6改造。到2020年末,上述企业完成全部云产品IPv6改造。 腾讯已经具备多年的IPv6技术积累,早在2013年就针对教育网的IPv6用户对部分腾讯业务应用访问,进行了底层网络架构的改造;近几年也是投入到IPv6和SDN、Segment Routing等新网络技术综合应用的研究。腾讯云由于受到用户需求的推动,早已开始云上业务IPv6改造的方案研究,现在则已经全面启动IPv6的支持计划。 腾讯云全面启动IPv6支持计划 向IPv6过渡:全部切换需要5-10年 IPv6在中国可以说一直不温不火,目前仅有校园网和三大运营商试点网络全面支持IPv6。在国内IPv6发展滞后的因素很多,但主要原因还是改造难度太大。互联网所有的通信都依赖于网络基础设施,但是庞大的网络基础设施改造是个非常巨大的工程,即使基础设施在理论上都能支持IPv6,但是改造并不能够一蹴而就,因为改造过程中要求不能够影响正在运行中的千百万IPv4业务。预计从IPv4全部切换到IPv6,需要5-10年的时间。 在未来过渡的数十年间,将会有多种网络形态存在。在过渡初期阶段,IPv4网络已经大量部署,而IPv6网络只是散落在各地的孤岛;然后逐步是IPv4和IPv6网络重叠;最后阶段,会以IPv4孤岛为主,直至IPv4全部消失。 在我们看来,不管是运营商还是公有云厂商,都会技术先行,实际改造部署的步骤,则遵循IPv4向IPv6的整体演进规律。 从下图来看,公有云厂商要实现IPv6的全面落地,需要完成四个层面的改造: 从改造周期来看,互联网接入区域和IDC数据中心基础设施IPv6的改造周期最长:因为它们和第三方(运营商、设备厂商等)相互依赖,网络架构复杂,设备众多。从技术难度来看,互联网接入区域的公网接入网关和云IaaS产品的VPC改造难度最大。 因为为了能够实现公有云千万级云主机的多租户能力,公有云普遍都采用的SDN+Overlay技术,这就要求SDN在协议层面全面支持IPv6,同时要求Overlay技术在封装层面中全面纳入IPv6;当SDN和Overlay在叠加多种IPv6的过渡方案,复杂程度就可想而知了。 IPv6三种典型过渡技术剖析 针对不用的网络互通场景,IPv6过渡技术按照技术原理可以分成三类: 翻译技术 通过翻译技术实现纯IPv4网络和纯IPv6网络之间的互通,类似于IPv4通信的NAT技术。网络边界设备将利用翻译技术,根据IP报文头的地址和协议进行相应的翻译。其中,NAT64是最为常用的翻译技术之一,解决了NAT-PT翻译技术存在的各种缺陷。 NAT64采用IPv6过渡技术中的地址转换技术,直接更改报文的头部信息,来实现IPv6和IPv4网络的互通。动态NAT64使用地址池方式,可以让大量的IPv6地址转化为很少的IPv4地址,通常用于IPv6网络发起连接到IPv4网络。如果手工配置静态映射,设备会根据绑定的映射关系进行一对一转换,从而保证任何一方均可以主动发起连接。 双栈技术 双栈协议:服务器、存储、交换设备、路由设备、安全设备等同时运行IPv4和IPv6两套协议栈,同时支持两套协议。目前大部分的网络设备和主机操作系统都已经支持双栈协议。 链路协议支持双协议栈:链路层协议包括以太网协议、PPP等,他们都能够很好的支持IPv6/IPv4双协议栈。拿以太网网协议为例:在以太帧中,如果协议ID字段的值为0x0800,则表示网络层协议采用的是IPv4;如果协议ID字段的值为0x86DD,则表示网络层协议为IPv6。 应用支持双协议栈:DNS、FTP等应用层协议都同时支持IPv6/IPv4双协议栈:DNS会优先选择IPv6协议栈,而不是IPv4协议栈作为网络层协议。 隧道技术 需要通过IPv4骨干网络连接两端的IPv6孤岛,或者通过IPv6骨干网络连接两端的IPv4孤岛,都可以采用隧道技术。以前者为例,隧道技术通过在网络边界设备将IPv6源封装到IPv4的报文中经过IPv4骨干网传递到另一边的网络边界设备进行IPv6报文的还原,最后送到IPv6目的端。隧道技术有手工隧道和自动隧道两种方式,其中GRE、ISATAP、6to4是最为主要的几种隧道技术。 IPv6 over IPv4 GRE隧道使用标准的GRE隧道技术提供了点到点连接服务,需要手工指定隧道的端点地址。GRE隧道本身并不限制被封装的协议和传输协议,一个GRE隧道中被封装的协议可以是协议中允许的任意协议。 腾讯云IaaS产品的IPv6演进方案 腾讯云IaaS产品在不同演进阶段,会搭配多种过渡技术实现整体公有云业务向IPv6的平滑演进。在云上业务未向IPv6迁移时,通过翻译技术帮助互联网的IPv6用户访问云上的IPv4主机;然后将云上的VPC和CVM、CBS等产品逐步支持双栈,通过双栈技术和隧道技术实现互联网IPv6用户和IPv6云主机的通信;最后当所有IDC和骨干网的双栈能力全部上线后,则通过双栈技术即可灵活的实现云上云下的互访互通。 需要重点强调的是: 相对于underlay的IPv6演进,公有云为了实现VPC能力都采用了SDN和Overlay技术,所以采用何种过渡技术时,需要结合自身的Overlay技术进行综合考虑。在运维层面,也需要考虑Overlay封装和IPv6 over IPv4隧道封装对报文长度和转发的影响。 NAT64公网网关和NAT64过渡技术 在VPC和云主机启用双栈能力之前,VPC和云主机继续运行IPv4协议栈, 腾讯云将为IPv6用户访问IPv4云主机部署独立的公网网关集群,公网网关通过NAT64的过渡技术实现IPv6和IPv4网络的互通。 NAT64过渡技术的应用 NAT64 是一种有状态的网络地址与协议转换技术,主要用于支持通过 IPv6网络侧用户发起连接访问 IPv4侧网络资源,但也可以通过手工配置静态映射关系,来实现 IPv4网络主动发起连接访问 IPv6网络。NAT64可实现 TCP、UDP、ICMP协议下的 IPv6与 IPv4网络地址和协议转换。 具体实现方案为: 在NAT64公网网关上配置一个IPv4的地址池,使用有状态的NAT64方案。公网IPv6用户请求中的地址{IPv6 A, IPv6 B}在公网网关上转为{IPv4 A,IPv4 B},被转换后的报文在云IDC内部按照IPv4协议转发流程在underlay网络以及宿主机上进行处理。 VPC双栈能力和GRE隧道技术 IDC网络部署了大量的网络和安全设备,虽然大部分设备理论上已具备IPv6/IPv4双栈能力,但是基础网络改造的周期跨度一定会很长。所以在IDC基础网络改造完成之前,VPC和CVM、容器、存储等IAAS层的IPv6功能会先上线,此时CVM和外网接入网关都将具备双栈的能力。那么如何帮助互联网IPv6用户和IPv6云主机穿越IPv4网络? […]
TKE基于弹性网卡直连Pod的网络负载均衡 前言 Kubernetes在集群接入层设计并提供了两种原生资源service和Ingress,分别负责四层和七层的网络接入层配置。 传统的做法是创建Ingress或LoadBalancer类型的Service来绑定腾讯云的负载均衡将服务对外暴露。这种做法将用户流量负载到用户节点的NodePort上,通过KubeProxy组件转发到容器网络中,但这种方案在业务的性能和能力支持会有所局限。 为了解决这个问题,TKE容器团队为在腾讯云上使用独立或托管集群的用户提供了一种新的网络模式,利用弹性网卡直连Pod的方案很大的增强了性能和业务能力的支持。 本文将会从传统的模式的问题入手,比较新旧模式的区别,并在最后提供新直连模式的使用指引。 传统模式面临的问题与挑战 性能与特性 KubeProxy在集群中会将用户NodePort的流量通过NAT的方式转发到集群网络中。这个NAT转发带来了以下一些问题。 NAT转发导致请求在性能上有一定的损失。 进行NAT操作本身会带来性能上的损失。 NAT转发的目的地址可能会使得流量在容器网络内跨节点转发。 NAT转发导致请求的来源IP被修改了,客户端无法获取来源IP。 当负载均衡的流量集中到几个NodePort时。过于集中的流量会导致NodePort的SNAT转发过多,使得源端口耗尽流量异常。还可能导致 conntrack 插入冲突导致丢包,影响性能。 KubeProxy的转发具有随机性,无法支持会话保持。 KubeProxy的每个NodePort其实也起到独立的负载均衡作用,由于负载均衡无法收敛到一个地方,所以难以达到全局的负载均衡。 为了解决以上问题,我们以前给用户提供的技术建议主要是通过Local转发的方式,避免KubeProxyNAT转发带来的问题。但是因为转发的随机性,一个节点上部署多个副本时会话保持依旧无法支持。而且Local转发在滚动更新时,容易出现服务的闪断,对业务的滚动更新策略以及优雅停机提出了更高的要求。我们有理由去寻找更好的方案解决这个问题。 业务可用性 通过NodePort接入服务时,NodePort的设计存在极大的容错性。负载均衡会绑定集群所有节点的NodePort作为后端。集群任意一个节点的访问服务时,流量将随机分配到集群的工作负载中。这就意味着部分NodePort的不可用,或者是Pod的不可用都不会影响服务的流量接入。 和Local访问一样,直接将负载均衡后端连接到用户Pod的情况下,当业务在滚动更新时,如果负载均衡不能够及时绑定上新的Pod,业务的快速滚动可能导致业务入口的负载均衡后端数量严重不足甚至被清空。因此,业务滚动更新的时候,接入层的负载均衡的状态良好,方能保证滚动更新的安全平稳。 负载均衡的控制面性能 负载均衡的控制面接口。包括创建删除修改四层、七层监听器,创建删除七层规则,绑定各个监听器或者规则的后端。这些接口大部分是异步接口,需要轮询请求结果,接口的调用时间相对较长。当用户集群规模较大时,大量的接入层资源同步会导致组件存在很大的时延上的压力。 新旧模式对比 性能对比 Pod直连模式已经在腾讯TKE上线,是对负载均衡的控制面优化。针对整个同步流程,重点优化了批量调用和后端实例查询两个远程调用比较频繁的地方。优化完成后,Ingress典型场景下的控制面性能较优化前版本有了95%-97%左右的性能提升。目前同步的耗时主要集中在异步接口的等待上。 后端节点突增 (应对集群扩容的场景) 七层规则突增(应对业务第一次上线部署到集群的场景) 除去控制面性能优化这样的硬核优化,负载均衡能够直接访问容器网络的Pod就是组件业务能力最重要的组成部分了,其不仅避免了NAT转发性能上的损失,同时避免了NAT转发带来的各种对集群内业务功能影响。但是在启动该项目时这一块还没有特别好的访问容器网络的支持。所以一期考虑集群CNI网络模式下Pod有弹性网卡入口,这个入口可以直接接入到负载均衡以达到直接访问的目的。负载均衡直接后端访问到容器网络,目前已经有通过云联网解决的方案,后续也会继续跟进这种更贴近集群网络的直连方案。 接下来能够直接访问了,如何保证滚动更新时的可用性保证呢?我们找到了官方提供的一个特性ReadinessGate。这个特性在1.12正式提供出来,主要是用来控制Pod的状态。默认情况下,Pod有以下Condition:PodScheduled、Initialized、ContainersReady,当这几个状态都Ready的时候,Pod Ready的Condition就通过了。但是在云原生的场景下面,Pod的状态是非常有可能需要参考其他状态的。ReadinessGate提供了这样一个机制,允许为Pod的状态判断添加一个栅栏,由第三方来进行判断与控制。这样Pod的状态就和第三方关联起来了。 负载均衡流量对比 传统NodePort模式 请求细节过程 请求流量进入负载均衡 请求被负载均衡转发到某一个节点的NodePort KubeProxy将来自NodePort的流量进行NAT转发,目的地址是随机的一个Pod。 请求进入容器网络,并根据Pod地址转发到对应节点。 请求来到Pod所属节点,转发到Pod。 新的Pod直连模式 请求细节过程 请求流量进入负载均衡 请求被负载均衡转发到某一个Pod的ENI弹性网卡 直连与Local访问的区别 看起来这两种访问方式的效果是一样的,但是在细节上还是存在一些差别。 从性能上区别不大,开启Local访问时,流量不会进行NAT操作也不会进行跨节点转发,所以仅仅多了一个到容器网络的路由。 没有进行NAT操作,来源IP就能够正确获取了。会话保持功能可能会有以下问题,当一个节点上存在多个Pod时,流量到哪一个Pod是随机的,这个机制可能会使话保持出现问题。 ReadinessGate的引入 前面有两个细节,可以在这里得到解答。 为什么要求集群版本高于 1.12 为什么kubectl […]
腾讯云公网负载均衡技术实现详解 CLB 简介 传统的LVS负载均衡是一种集群( Cluster )技术,采用IP负载均衡技术和基于内容请求分发技术。LVS 有三种工作模式 DR 模式、NAT 模式及 TUNNEL 模式,三种模式分别都有各自的局限性。这样就催生了 CLB 概念。套用官网介绍:负载均衡( Cloud Load Balancer )是对多台云服务器进行流量分发的服务。负载均衡可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 CLB 基本概念 基本属性 LB 实例 腾讯云提供的一种网络负载均衡服务( CLB ),可以结合 CVM 虚拟机为用户提供基于 TCP/UDP/HTTP/HTTPS 协议类型的负载均衡服务。 后端服务器 接受负载均衡分发请求的一组云服务器实例,负载均衡服务将访问请求按照用户设定的规则/权重转发到这一组后端 CVM 上进行应用处理。 虚拟地址VIP 腾讯云负载均衡分配给每个负载均衡实例的虚拟地址。客户端可以通过 vip+port 进行4层负载分发。也可以按照vip+vport+url进行7层负载分发。 监听器 目前存在两种监听器。传统公网固定IP类型的监听器包括监听端口,后端服务器端口、负载均衡策略、健康检查阀值配置和轮训方式等,每个监听器对应后端的一个应用服务。新版的应用型监听器只有监听端口属性(https 还有证书信息)。但是监听器下又可以创建域名和规则,规则中可以设置健康检查阀值、负载均衡策略、转发路径等信息。同时监听器维度存在几个概念需要了解下,主要如下: vport:提供给客户端访问的端口 pport:LB 后端服务器需要启动的端口 轮询方式:目前只有权重轮询 /ip_hash/ 最小连接数三种轮询方式 会话保持:保证同一客户端多次请求在一定的时间内落地到后端同一台服务器上 snat:lb 是否支持后端服务器可以看到客户端的真实 ip,否则 RS 看到是 vip […]
在腾讯云容器服务TKE中实践DevOps 概述 DevOps 理念被越来越多的企业采纳,DevOps 是 Development 和 Operations 的组合词,代表着重视「软件开发人员(Dev)」和「IT 运维技术人员(Ops)」之间沟通合作的文化;旨在透过自动化「软件交付」和「架构变更」的流程,使得构建、 测试、发布软件的过程能够更加地快捷、频繁和可靠。在云原生时代,我们更需要 Devops 思维来实现敏捷开发, 本文将介绍和实践专为云原生打造的 TKE 容器 DevOps 服务,实现从代码提交时触发镜像的自动构建,再到镜像构建成功时触发自动部署流程将应用部署、更新到 TKE 集群中的一整套无缝衔接的 Devops 流水线。 TKE 容器 DevOps 简介 TKE 容器 DevOps 是 容器服务TKE、容器镜像服务 TCR 和 CONING DevOps 三个服务紧密结合,面向容器业务场景,具备自动化代码编译、容器镜像构建、镜像推送及应用部署等功能,为客户提供强大的一站式云原生 DevOps 服务。 TKE 容器 DevOps 业务流程 TKE 容器 DevOps 服务贯穿了整个应用开发和部署流程的全生命周期管理,实现了从更新代码到应用部署、更新的自动化,如下图所示: 如何使用 TKE 容器 DevOps 操作场景 TKE 容器 […]
什么是黑石服务器 黑石服务器可能大家还比较陌生,一般我们听到的都是腾讯云服务器这样的一个统称。其实腾讯云黑石服务器中的“黑石”是一种新思路,就是在同一个园区同一个网络上去进行建设,用户可以在腾讯的公有云上创建出一张私有网络——拥有自己的高性能物理机,和公有云的内网是互通的,核心的架构在物理机以及虚拟机两边来任意的部署,同时互联又是完全免费的,从而解决了专线昂贵和延时过高的问题!腾讯黑石服务器的背后,是想用自己的云把所有企业的服务器全部“替代”的节奏,管你公有云还是私有云。虽然目标有点大,但却绝对是一个针对企业痛点需求而推出的产品——非常“走心”的黑石服务器!其实黑石服务器包括物理服务器和ARM 服务器两种,那之前其实也给大家介绍过黑石物理服务器了,今天国经网络主要给您介绍下黑石ARM 服务器。黑石ARM服务器是种ARM服务器的裸机租赁服务。黑石ARM实例使用了ARMv8架构,它能提供更大的内存容量和更多的物理内核,具有更强的性能和更有竞争力的TCO(总体拥有成本);且天然兼容移动端应用,无需进行指令集的转译。 像这些场景就可以使用黑石服务器ARM 服务器移动端游戏,享受着近年硬件升级及出货量的红利,玩法不断出新、画面愈加绚丽、场面愈加宏大,深受玩家喜爱。但大型移动端游戏在研发、运营甚至玩家在使用过程中仍存在一些困难。比如研发Android游戏,需要大量真机做测试。但Android 手机型号碎片化且更新换代很快,开发商不仅无法覆盖市面上所有型号,而且采购的成本很高。市面上大部份Android移动端都采用ARM 架构CPU,黑石服务器ARM实例与移动端的CPU采用相同指令集,这样就可以在黑石服务器上运行Android模拟器,跑ARM游戏来完成游戏测试,不仅减少了采购成本,更重要的是因为指令集相同模拟器在ARM上运行的效率更高。 另外,大型游戏安装包很大,发行商在户外运营时让玩家现场安装、体验的成本很高;游戏更新频繁,等待更新的时间很长,但如果将游戏运行在黑石服务器ARM服务器,玩家通过网络即可随时体验游戏,将更方便快捷。 其次,可适用于冷存储,冷存储主要用于备份、归档等应用领域,比如腾讯社交网络每天需要备份近PB级用户数据,各类应用需要做异地数据灾备,但这些数据有个共性,即被访问的频次很低,被称为冷数据。存储冷数据所用的服务器对存储要求高,但对CPU性能要求低。ARM的高性能、低功耗的特点则非常适用于冷存储场景,经实际测试使用ARM服务器存储冷数据,TCO(整体拥有成本)可以降低10%以 帮助中心 Posted on 2022年4月15日 在腾讯云TKE上HPA实现业务的弹性伸缩 在腾讯云TKE上HPA实现业务的弹性伸缩 概述 Kubernetes Pod 水平自动扩缩(Horizon […] Read More 帮助中心 Posted on 2022年4月15日 腾讯云容器服务日志采集最佳实践 腾讯云容器服务日志采集最佳实验 概述 本文介绍如何利用腾讯云容器服务 TKE 的日志功能对日志进行采集、存 […] Read More 帮助中心 Posted on 2022年4月15日 腾讯云负载均衡CLB高可靠高性能背后架构 腾讯云负载均衡CLB高可靠、高性能背后架构 前言 腾讯云负载均衡(Cloud LoadBalancer),简称 […] Read More 帮助中心 Posted on 2022年4月15日 腾讯云原生应用负载均衡 腾讯云原生应用负载均衡系列:入口流量分发,容错与高可用调度 引言 在云原生应用负载均衡系列第一篇文章《云原 […] […]
什么是云数据库MySQL 腾讯云数据库 MySQL(TencentDB for MySQL)为用户提供安全可靠,性能卓越、易于维护的企业级云数据库服务。其具备6大企业级特性,包括企业级定制内核、企业级高可用、企业级高可靠、企业级安全、企业级扩展以及企业级智能运维。通过使用腾讯云数据库 MySQL,可实现分钟级别的数据库部署、弹性扩展以及全自动化的运维管理,不仅经济实惠,而且稳定可靠,易于运维。 云数据库 TencentDB for MySQL 的特性 易于使用的托管部署 只需在云数据库 MySQL 管理控制台中单击几下,即可在几分钟内启动并连接到一个可以立即投入生产的 MySQL 数据库。云数据库 MySQL 数据库实例针对您选择的服务器类型预配置了各种参数和设置。数据库参数组可以提供对 MySQL 数据库的精细控制和微调功能。 专项内核优化 云数据库 MySQL 实例提供业界领先的 IO 吞吐能力;深度定制开发 MySQL 内核,性能远超基于开源 MySQL 的自建数据库。云数据库 MySQL 的性能优势让您可以以更少的数据库数量支撑更高的业务并发请求量,简化了后端架构,使得整体 IT 架构更易于管理和运维。 完善的保障机制 腾讯云提供 99.9996% 的数据可靠性和 99.95% 的服务可用性,拥有完善的数据自动备份和无损恢复机制。云数据库 MySQL 的高可靠性让您可以放心将数据放在云端,无需担心数据丢失,也简化了传统运维工作中为保障数据高可靠带来的额外工作量和额外的 IT 投入成本。 强同步复制 云数据库 MySQL 支持强同步和半同步的数据复制方式。云数据库 MySQL 内核进行了多项数据复制优化,极大提高了数据强同步复制性能。同时优化了主备切换引起的幻读现象以及主机宕机恢复时导致的临界事务,大幅提高了 MySQL 5.6 版本下的数据一致性。 […]
腾讯云数据库(Redis)监控最佳指南 云数据库 Redis(TencentDB for Redis)是由腾讯云提供的兼容 Redis 协议的缓存数据库,具备高可用、高可靠、高弹性等特征。云数据库 Redis 服务兼容 Redis 2.8、Redis 4.0、Redis 5.0 版本协议,提供标准和集群两大架构版本。最大支持 4TB 的存储容量,千万级的并发请求,可满足业务在缓存、存储、计算等不同场景中的需求。 云数据库 Redis 的优势: 主从热备:提供主从热备,宕机自动监测,自动容灾。 数据备份:标准和集群架构数据持久化存储,可提供每日冷备和自助回档。 弹性扩容:可弹性扩容实例的规格或缩容实例规格,支持节点数的扩容和缩容,以及副本的扩容和缩容。 网络防护:支持私有网络 VPC,提高缓存安全性。 分布式存储:用户的存储分布在多台物理机上,彻底摆脱单机容量和资源限制。 技术架构 云数据库 Redis 提供 0.25GB – 4TB 的容量规格选择,提供标准和集群两个架构版本。 01 云数据库 Redis 内存版(标准架构) 云数据库 Redis 内存版(标准架构)指支持 0 个或者多个副本的版本(副本是指非主节点的节点),是最通用的 Redis 版本,兼容 Redis 2.8、Redis 4.0、Redis 5.0 版本的协议和命令,提供数据持久化和备份,适用于对数据可靠性、可用性都有要求的场景。主节点提供日常服务访问,从节点提供 HA 高可用,当主节点发生故障,系统会自动切换至从节点,保证业务平稳运行。 […]
腾讯云服务器的配置指南 一、下载软件 1.putty(在windows下登陆服务器) 下载地址:http://www.chiark.greenend.org.uk/~sgtatham/putty/download.html 点击 “PuTTY” (登录服务器,Linux系统)和 “PuTTYgen”(更改密钥格式),下载 2.WinSCP(从windows向服务器传输数据,我们的爬虫框架就是从这个软件放到服务器上)下载地址:http://winscp.net/eng/download.php 点击 “Installtion package” 这样就下载好了要用的两个软件。 二、购买云服务器 1.云产品–云服务器 2. 云服务器-云主机 选择地区:上海或者广州 -> 新建 3. 产品选购 (1)按照这个配置选购(地区无所谓) (2)操作系统统一,选择图中这个(方便统一维护,项目组统一用ubuntu),其他默认 (4)密钥:新建密钥,新建并下载(注意:1.一定要新建,否则不会出现立即关联密钥选项 2.只保留十分钟,记得要下载!); 安全组:“Linux安全组放通22端口”; 按月购买(代金券是按月发放的,按我们的配置服务器每月是65元,代金券是64元的优惠) 重点!!! 需要注意的是有的时候登陆设置可能不会出现立即关联密钥这一选项,这个时候可以更换浏览器或者升级浏览器重新进行这部分的步骤后即可以出现。如果还是不行的,还可以直接用web服务端的密码登陆,在实际操作中并无太大影响,ssh private-key是比较安全的但需要随身携带,public-key可能会被hack但不用随身放在u盘里。(我就是组里少数无法出现立即关联密钥的人,但web服务端public-key的使用也非常方便~) (5)支付(6)收到邮件通知:注意默认账户、Web服务端密码、公网IP 三、配置云服务器 1. 更改密钥格式(这是对于用private key的用户)打开puttygen 点击Load 这里看到的是IGuo的文件,(大家去找二-3-(4)下载的文件)之后生成的是SSH_private_key.ppk的格式 点击“save private key”,导出成ppk形式的密钥,保存好ppk,为了能够随时使用,可以放到u盘里。2.putty对于ppk密钥的用户:打开putty,看右边的category,点击Connection下方的SSH-Auth-brower 选择刚保存的ppk文件 返回window-color,选择use system color 返回session,输入邮件收到的公网IP,saved sessions输入名称,点击Save(方便下次双击直接登录,需要注意的是如果下次登陆直接双击,页面将会变成黑色,如果还想使用system color的界面,可以选择load服务器名称,再到window-color修改界面颜色,再点击open即可。) 点击Open,第一次登录,建立连接,点击Yes。输入邮件收到的用户名,也就是在login as:输入ubuntu 回车,最后一行,@前面是用户名,@后面是主机名 对于web客户端的用户,使用的是public-key,有个好处就是可以随时随地打开,不需要随时携带你的private ssh key.当然在putty 操作的时候也会比较麻烦。 […]
Docker容器安全管控方法 这篇文章主要讲解了“Docker容器安全管控方法”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Docker容器安全管控方法”吧! 一、前言 毫无疑问,容器是当前云计算的热门主流技术之一。Docker 通过把应用的运行时环境和应用打包在一起,解决了部署环境依赖等问题;它消除了编译、打包与部署、运维之间的鸿沟,有助于提高应用开发、运维效率:总之,它与 DevOps 理念不谋而合,受到了很多企业的推崇。 当然 Docker 容器的生命周期中也存在着不少安全隐患,比如容器自身的问题、容器镜像的问题,还有容器在运行时暴露的问题等等。因此,本文将对 Docker 容器生命周期的安全问题及相应的改善方法进行若干探讨,挂一漏万,抛砖引玉,希望各位读者予以批评指正! 二、Docker容器生命周期安全问题 在 Docker 容器生命周期内的多个阶段均可能引入安全问题,本章将分模块对这些安全问题进行浅析,纲举目张,我们先了解一下 Docker 容器全生命周期安全管控的架构,如图1所示。 图1. Docker 容器全生命周期安全管控架构 这张图片可以反映 Docker 对其核心——“镜像” 的 “Build, Ship and Run”(构建镜像、传输镜像与运行容器)操作;Docker的应用环境可被分为“非生产环境”和 “生产环境” 这两类。 非生产环境与 Dev(开发)强相关,而生产环境则与Ops(运维)强相关。非生产环境内的主要管控点是镜像深度扫描,在生产环境做容器编排时需要从非生产环境拉取并运行Docker镜像,因此镜像运行控制也是一个主要管控点。 生产环境内的主要管控点是容器系统入侵检测与防护以及容器网络入侵检测与防护。同时,应在Docker容器全生命周期中的各个阶段将合规基线问题作为重要的管控点。 下面从Docker容器安全的各个主要管控点出发,列举部分它们所应对的安全问题。 1. 镜像深度扫描 在做镜像深度扫描时,应重视的安全问题包括但不限于: 镜像中的操作系统软件包与应用程序依赖项包含已知CVE漏洞 镜像的应用目录被植入Webshell 镜像敏感信息泄露 镜像完整性校验问题 Dockerfile中存在不安全的写法(Dockerfile是Docker镜像的构建脚本) 2. 镜像运行控制 在做镜像运行控制时,应重视的安全问题包括但不限于: 镜像完整性校验问题 特权模式共享root权限 内存配额未被限制 CPU优先级未被限制 存储空间配额未被限制 在启用容器时使用Host网络模式 3. 容器系统入侵检测与防护 […]