博客
关于我
高并发C/S的TCP版本golang实现
阅读量:267 次
发布时间:2019-03-01

本文共 986 字,大约阅读时间需要 3 分钟。

前面一篇文章写到的实现服务器只能连接一个客户端,没有发挥出go语言的协程特性,所以又可用如下方法实现高并发,多个客户端连接来完成:

package mainimport (	"fmt"	"net"	"strings")// 服务器Read读客户端,返回0 说明对端关闭func main() {   	// 创建监听套接字	listener, err := net.Listen("tcp", "127.0.0.1:8001")	if err != nil {   		fmt.Println("listen err", err)		return	}	defer listener.Close()	for {   		// 监听客户端连接请求		fmt.Println("服务器等待客户端连接")		conn, err := listener.Accept()		if err != nil {   			fmt.Println("listener.Accept err", err)			return		}		// 具体完成服务器和客户端的数据通信		go HandlerConnect(conn)	}}func HandlerConnect(conn net.Conn) {   	defer conn.Close()	// 获取连接的客户端Addr	addr := conn.RemoteAddr()	fmt.Println(addr, "客户端成功连接---")	// 循环读取客户端发送数据	buf := make([]byte, 4096)	for {   		n, err := conn.Read(buf)		if n == 0 {   			fmt.Println("服务器检测到客户端已关闭,断开连接")			// 这里关闭的只是go线程,main线程还是在for循环的			return		}		if err != nil {   			fmt.Println("conn Read err", err)			return		}		fmt.Println("服务器读到数据:", string(buf[:n]))		// 小写转大写回发		conn.Write([]byte(strings.ToUpper(string(buf[:n]))))	}}

转载地址:http://eqpv.baihongyu.com/

你可能感兴趣的文章
Nginx(2):Nginx配置server节点
查看>>
nginx:/usr/src/fastdfs-nginx-module/src/common.c:21:25:致命错误:fdfs_define.h:没有那个文件或目录 #include
查看>>
Nginx:NginxConfig可视化配置工具安装
查看>>
Nginx:现代Web服务器的瑞士军刀 | 文章末尾送典藏书籍
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate动态添加表
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
NHibernate示例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>