一种是网卡产生中断,通知内核进行接收报文。一次中断接收一个报文。在中断处理程序中把报文从硬件缓存中拷贝到内存中,并把报文加入到协议栈中对应的入口队列中,中断退出时调用收包软中断来从相应队列来读取报文进行处理。这种方式优点是内核对报文响应较快,在网卡上 有少量报文时效果较好。这样如果网卡有大量报文的话,会产生大量中断。中断会不断打断处理报文的软中断,这样先前的报文来不及处理,总是被打断,队列里的报文大量堆积导致不能被及时处理,导致报文性能下降。
另一种是中断加轮询的方式进行接收报文的。当一个报文到来时,产生中断通知内核,注册的中断处理程序首先禁止网卡的中断,内核开始轮询的从网卡硬件缓存或网卡硬件管理的内存队列中读取报文并处理,直到报文读完或超出了设置的允许读取最大报文个数,轮询函数停止处理报文。如果这次轮询处理完了全部报文,并接着使能网卡中断。如果轮询没有处理完全部报文,这时就重新调度软中断,等下次软中断被调度到后继续轮询处理报文。这样是为了防止轮询独占CPU时间。以后重复这样的接收报文步骤。这样内核处理一次中断可以处理多个报文,这样就避免了产生大量中断造成的系统开销。但支持这样的操作的网卡必须支持硬件能自动把报文存入内存中,或硬件缓存足够大。否则当一次轮询结束后并没有处理完全部的报文时,到下次软中断被调度到开始轮询的这段时间里,当网卡硬件内部的缓存满后会产生丢包。
Linux 提供对两种报文接收方式的支持,供不同网卡驱动来用。在本文中把第一种称为旧的方式(旧是相对于NAPI来说的),第二种方法linux内核中称为NAPI方式。
NAPI的另一个优点是设备处理更为公平,因为软中断顺序执行每个需要处理的设备的轮询函数,每个轮询函数执行时间是有限制的,超过最大的执行时间后就会执行下一个设备的轮询函数。这样就保证负载低的和负载高的设备被处理的机会是一样。
Linux 内核协议栈中报文接收的设计思路分析如下:
NAPI接口和旧接口两者有一下相同点:
(1)、对报文的处理都是放在软中断中处理。
(2)、两者都有存储报文的队列,NAPI的队列是由网卡驱动来管理的(一般是有网卡DMA到内存中,网卡驱动管理着存储报文的队列),而旧接口的队列是由Linux内核管理的,由网卡驱动负责往队列里加报文。
每个NAPI设备都有一个轮询函数来由收包软中断调用,来进行轮询处理报文。我们可以建立一个虚拟的NAPI设备(backlog),让她的轮询函数来轮询的处理旧接口的报文队列。收包软中断处理函数只是进行调用相应NAPI的轮询函数进行处理,并不关心是虚拟NAPI还是非虚拟NAPI。具体轮询细节由相关NAPI的轮询函数自己实现。这样旧接口和NAPI就可以很好的融合在一起来实现了。
如上所述,我们现在可以知道每个CPU上需要有如下几个元素:
1、一个报文的接收队列,由旧接口来使用。
2、一个虚拟的NAPI设备,来有Linux协议栈自己创建并处理旧接口使用的队列中的报文。
3、一个NAPI的链表,上面挂着有报文需要处理的NAPI设备,由收包软中断来遍历该链表,顺序执行每个NAPI的轮询函数。
Linux内核具体实现:
结构体定义如下
structsoftnet_data
{
struct sk_buff_head input_pkt_queue;//旧接口的输入队列
struct list_head poll_list;//有需要处理报文的NAPI设备链表
struct napi_struct backlog;//虚拟的NAPI设备 backlog
};
定义一个per_cpu变量 softnet_data
DECLARE_PER_CPU(struct softnet_data,softnet_data);
softnet_data 的初始化如下:
static int __init net_dev_init(void)
{
int i, rc = -ENOMEM;
/*
* Initialise the packet receive queues.
*/
for_each_possible_cpu(i)
{
struct softnet_data *queue;
queue = &per_cpu(softnet_data, i);
/*初始化输入队列*/
skb_queue_head_init(&queue->input_pkt_queue);
queue->completion_queue = NULL;
/*初始化pool 链表头*/
INIT_LIST_HEAD(&queue->poll_list);
/*把backlog的轮询函数初始化为 process_backlog
该函数来处理传统接口使用的输入队列的报文*/
queue->backlog.poll = process_backlog;
/*backlog 轮询函数一次可以处理的报文上限个数*/
queue->backlog.weight = weight_p;
queue->backlog.gro_list = NULL;
queue->backlog.gro_count = 0;
}
}
NAPI的数据结构:
每个NAPI需要如下几个元素:
1、一个轮询函数,来轮询处理报文。
2、需要有一个状态,来标识NAPI的调度状态,是正在被调度还是没有被调度。
3、每个NAPI的一次轮询能处理的报文个数应该有一个上限,不能无限制的处理下去,防止独占CPU资源导致其他进程被饿死。
4、每个NAPI应该和一个网络设备进行关联。
5、NAPI设计时考虑了多队列的情况。一个网络设备可以有多个报文队列,这样一个网络设备可以关联多个NAPI,每个NAPI只处理特定的队列的报文。这样在多核情况下,多个CPU核可以并行的进行报文的处理。一般专用的网络多核处理器存在这种情况。
6、每个NAPI在有报文的情况下应该挂到softnet_data的pool_list上去。
如上所述,NAPI的结构体定义如下
struct napi_struct
{
struct list_head poll_list;//挂到softnet_data的pool_list上
unsigned long state;//NAPI的调度状态
int weight;//一次轮询的最大处理报文数
int (*poll)(struct napi_struct *, int);//轮询函数
struct net_device *dev;//指向关联的网络设备
struct list_head dev_list;//对应的网络设备上关联的NAPI链表节点
/*其他字段是gso功能用,这里先不讨论*/
};
NAPI的调度状态:
NAPI_STATE_SCHED设置时表示该NAPI有报文 需要接收。即把NAPI挂到softnet_data 时要设置该状态,处理完从softnet_data 上摘除该NAPI时要清除该状态。
一些NAPI的函数详解:
1、netif_napi_add(),把网络设备net_device 和NAPI结构相绑定。
void netif_napi_add(struct net_device *dev,
struct napi_struct *napi,
int (*poll)(struct napi_struct *, int), int weight)
{
INIT_LIST_HEAD(&napi->poll_list);
napi->poll = poll;
napi->weight = weight;
/*把NAPI加入到网络设备相关联的NAPI链表上去。*/
list_add(&napi->dev_list, &dev->napi_list);
napi->dev = dev;
/*绑定时设置NAPI是已调度状态,禁用该NAPI,以后手动的来清除该标识来使
能NAPI.*/
set_bit(NAPI_STATE_SCHED, &napi->state);
}
2、使能和禁用NAPI:
static inline void napi_disable(struct napi_struct *n)
{
/*先设置NAPI状态为DISABLE*/
set_bit(NAPI_STATE_DISABLE, &n->state);
/*循环的等待NAPI被调度完成,变成可用的,设置成SCHED状态*/
while (test_and_set_bit(NAPI_STATE_SCHED, &n->state))
msleep(1);
/*清除DISABLE状态*/
clear_bit(NAPI_STATE_DISABLE, &n->state);
}
3、调度NAPI
{
unsigned long flags;
/*链表操作必须在关闭本地中断的情况下操作,防止硬中断抢占*/
local_irq_save(flags);
/*把NAPI加入到本地CPU的softnet_data 的pool_list 链表上*/
list_add_tail(&n->poll_list, &__get_cpu_var(softnet_data).poll_list);
/*调度收包软中断,详见软中断的实现*/
__raise_softirq_irqoff(NET_RX_SOFTIRQ);
local_irq_restore(flags);
}
4、NAPI执行完毕,如果NAPI一次轮询处理完队列的所以报文,调用该函数。
void __napi_complete(struct napi_struct *n)
{
BUG_ON(!test_bit(NAPI_STATE_SCHED, &n->state));
BUG_ON(n->gro_list);
/*把NAPI从softnet_data的pool_list上摘除下来*/
list_del(&n->poll_list);
/*使能NAPI,允许它下次可以被再次调度*/
smp_mb__before_clear_bit();
clear_bit(NAPI_STATE_SCHED, &n->state);
}
一般网卡驱动的NAPI的步骤:
1、不同的网卡驱动都会为网络设备定义自己的结构体。有的是自己的结构体中即包括net_device和napi,有的是把自己的结构体放到net_device的priv部分。
2、实现NAPI的轮询函数 rx_pool(struct napi_struct *napi,int weigh);
int rx_pool_xxx(struct napi_struct *napi,int weigh)
{
int rx_cnt = 0;
struct sk_buff *skb;
while(rx_cnt < weigh)
{
skb = netdev_alloc_skb();
copy_skb_form_hw(skb);/*把报文从硬件缓存中读到内存skb中*/
rx_cnt ++;
netif_receive_skb(skb);//送协议栈直接处理
}
if(rx_cnt < weigh)
{
/*处理报文小与允许处理最大个数,表示一次轮询处理完全部的报文。使能收包中断*/
napi_complete(napi)
enable_rx_irq();
}
else
{
/*否则轮询超时后没有处理完该处理的报文,就不用使能中断,也不用把NAPI从链表上摘下来。直接返回即可*/
}
return rx_cnt;
}
3、把网络设备跟NAPI相关联,netif_napi_add(netdev,napi,rx_pool_xxx,weigh);
4、注册网卡的收包中断:例:
request_irq(irq,&rx_irq_handle, 0, netdev->name, netdev);
在中断处理函数中,把对应的NAPI加入到内核管理的链表中。
static irqreturn_t rx_irq_handle(int irq, void *data)
{
struct net_device *netdev = data
struct napi_struct *napi = netdev_priv(netdev)->napi;
disable_rx_irq();
__napi_schedule(napi);
}
网卡使用旧接口的方法:
在网卡收包中断处理程序中,把报文从网卡硬件缓存中拷贝到内存后,初始化好skb结构体,直接调用
netif_rx(skb)把报文加入到内核管理的队列中即可。